
Entre los actores señalados, destacan grupos vinculados a China, Irán y Rusia, quienes utilizaron ChatGPT para desarrollar malware, realizar phishing y lanzar campañas de desinformación en redes sociales.
El grupo chino SweetSpecter fue identificado por sus ataques de spear-phishing contra gobiernos asiáticos y personal de OpenAI. Utilizaron correos falsos relacionados con ChatGPT, ocultando malware llamado “SugarGh0st RAT” en archivos ZIP.
Por su parte, CyberAv3ngers, vinculado a la Guardia Revolucionaria de Irán, utilizó IA para hackear sistemas de control de agua en EE. UU. e Irlanda, causando interrupciones temporales en el suministro.
Además, el informe destacó cómo la IA fue utilizada para crear campañas de desinformación, con la operación A2Z y Stop News como ejemplos clave. A2Z promovió contenido favorable a Azerbaiyán, mientras que Stop News generó artículos falsos para medios simulados en África y el Reino Unido.
El reporte resalta que, si bien no se crearon variantes completamente nuevas de malware, las herramientas de IA como ChatGPT facilitaron ataques más rápidos y personalizados. Los modelos de IA permitieron a los hackers depurar códigos, generar scripts maliciosos y diseñar campañas de phishing más sofisticadas, lo que representa un reto creciente para la industria de la ciberseguridad.
En respuesta a estas amenazas, OpenAI ha reforzado sus protocolos de seguridad y colabora con otras empresas y gobiernos para detectar y prevenir el uso malicioso de sus modelos. El informe subraya que toda la industria de la IA debe adoptar una postura proactiva, creando algoritmos más robustos capaces de detectar amenazas antes de que se materialicen.