ChatGPT

Así pueden estafarte con ChatGPT: cuando la IA se usa de manera indebida

Desde la propia plataforma están 'a la caza' de este tipo de prácticas ilícitas

Noelia Bertol

La IA ha llegado para cambiar las reglas del juego, y eso no es sorpresa para nadie a estas alturas. Ya está revolucionando la productividad y el conocimiento, pero lamentablemente, como toda herramienta, también está siendo usada maliciosamente para perpetrar estafas, ciberataques y campañas de desinformación. Y aunque la inteligencia artificial se están entrenando para identificar este tipo de prácticas ilícitas, aún hay ciertas manipulaciones que escapan a su control.

Ha sido OpenAI, la empresa que está detrás de ChatGPT la que en un informe ha detallado cómo su tecnología ha sido manipulada por agentes internacionales con fines ilícitos. Desde febrero del 2024 la compañía de Sam Altman ha desactivado 40 redes que violaban sus términos de uso.

Al parecer, estas operaban desde países como Corea, Camboya, Rusia, China y Nigeria, y utilizaban ChatGPT para desarrollar malware, crear campañas fraudulentas, monitorizar redes sociales y difundir contenido sesgado en plataformas como YouTube o TikTok.

Una chica habla por el chat de Tinder
Getty

Así utilizan la IA para estafarte

Uno de los casos más alarmantes fue el de una red coreana que utilizó el chatbot para diseñar una infraestructura de comando y control destinada a ciberataques. En paralelo, otra red con base en Camboya y Birmania intentó engañar a usuarios mediante falsas ofertas laborales, una táctica conocida como ‘matanza de cerdos’, que ha evolucionado gracias a la IA generativa.

El informe también revela cómo los ciberdelincuentes están aprovechando estas herramientas para crear deepfakes (archivos multimedia manipulados), clonar voces y generar identidades falsas con una precisión inquietante. Técnicas que se usan en estafas de carácter romántico, en fraudes financieros o en suplantaciones de identidad, afectando especialmente a personas mayores y vulnerables.

A pesar de estos usos maliciosos, desde OpenAI destacan un dato esperanzador. «ChatGPT se utiliza para identificar timos hasta tres veces más a menudo que para estafas«, apunta Altman. Una afirmación que subraya el potencial de la IA como herramienta de defensa frente al fraude digital y con la que se busca que no se establezca un sentimiento de vulnerabilidad con la inteligencia artificial.

MÁS SOBRE: