
Ha sido OpenAI, la empresa que está detrás de ChatGPT la que en un informe ha detallado cómo su tecnología ha sido manipulada por agentes internacionales con fines ilícitos. Desde febrero del 2024 la compañía de Sam Altman ha desactivado 40 redes que violaban sus términos de uso.
Al parecer, estas operaban desde países como Corea, Camboya, Rusia, China y Nigeria, y utilizaban ChatGPT para desarrollar malware, crear campañas fraudulentas, monitorizar redes sociales y difundir contenido sesgado en plataformas como YouTube o TikTok.
Uno de los casos más alarmantes fue el de una red coreana que utilizó el chatbot para diseñar una infraestructura de comando y control destinada a ciberataques. En paralelo, otra red con base en Camboya y Birmania intentó engañar a usuarios mediante falsas ofertas laborales, una táctica conocida como ‘matanza de cerdos’, que ha evolucionado gracias a la IA generativa.
El informe también revela cómo los ciberdelincuentes están aprovechando estas herramientas para crear deepfakes (archivos multimedia manipulados), clonar voces y generar identidades falsas con una precisión inquietante. Técnicas que se usan en estafas de carácter romántico, en fraudes financieros o en suplantaciones de identidad, afectando especialmente a personas mayores y vulnerables.
MÁS SOBRE: