La IA ha llegado para cambiar las reglas del juego, y eso no es sorpresa para nadie a estas alturas. Ya está revolucionando la productividad y el conocimiento, pero lamentablemente, como toda herramienta, también está siendo usada maliciosamente para perpetrar estafas, ciberataques y campañas de desinformación. Y aunque la inteligencia artificial se están entrenando para identificar este tipo de prácticas ilícitas, aún hay ciertas manipulaciones que escapan a su control.
Ha sido OpenAI, la empresa que está detrás de ChatGPT la que en un informe ha detallado cómo su tecnología ha sido manipulada por agentes internacionales con fines ilícitos. Desde febrero del 2024 la compañía de Sam Altman ha desactivado 40 redes que violaban sus términos de uso.
Al parecer, estas operaban desde países como Corea, Camboya, Rusia, China y Nigeria, y utilizaban ChatGPT para desarrollar malware, crear campañas fraudulentas, monitorizar redes sociales y difundir contenido sesgado en plataformas como YouTube o TikTok.

Uno de los casos más alarmantes fue el de una red coreana que utilizó el chatbot para diseñar una infraestructura de comando y control destinada a ciberataques. En paralelo, otra red con base en Camboya y Birmania intentó engañar a usuarios mediante falsas ofertas laborales, una táctica conocida como ‘matanza de cerdos’, que ha evolucionado gracias a la IA generativa.
El informe también revela cómo los ciberdelincuentes están aprovechando estas herramientas para crear deepfakes (archivos multimedia manipulados), clonar voces y generar identidades falsas con una precisión inquietante. Técnicas que se usan en estafas de carácter romántico, en fraudes financieros o en suplantaciones de identidad, afectando especialmente a personas mayores y vulnerables.
A pesar de estos usos maliciosos, desde OpenAI destacan un dato esperanzador. «ChatGPT se utiliza para identificar timos hasta tres veces más a menudo que para estafas«, apunta Altman. Una afirmación que subraya el potencial de la IA como herramienta de defensa frente al fraude digital y con la que se busca que no se establezca un sentimiento de vulnerabilidad con la inteligencia artificial.
MÁS SOBRE:
© Sociedad Española de Radiodifusión, S.L.U. 2026. Todos los derechos reservados
© Quedan reservados todos los derechos tanto sobre programas radiofónicos y las obras y prestaciones que formen parte de ellos, como sobre los contenidos publicados en esta página web. Sociedad Española de Radiodifusión SLU ejerce la oposición expresa frente al uso de sus obras y prestaciones en la elaboración de revistas de prensa prevista en el artículo 32.1 del TRLPI. Sociedad Española de Radiodifusión SLU realiza la reserva expresa frente la reproducción, distribución y comunicación pública de sus trabajos y artículos sobre temas de actualidad prevista en el artículo 33.1 del TRLPI, asimismo, también realiza una reserva expresa de las reproducciones y usos de las obras y otras prestaciones accesibles desde este sitio web a medios de lectura mecánica u otros medios que resulten adecuados a tal fin de conformidad con el artículo 67.3 del Real Decreto - ley 24/2021, de 2 de noviembre, así como frente a cualquier utilización de sus contenidos por tecnologías de inteligencia artificial, sea cual sea su naturaleza y finalidad.