Una amenaza silenciosa surge con la IA de OpenAI para desarrollar malware.
OpenAI ha sido clave en la innovación de modelos de lenguaje, como ChatGPT, pero también ha visto cómo los cibercriminales empiezan a aprovechar esta tecnología para crear software malicioso. A pesar de las barreras implementadas por la compañía, las amenazas persisten, y OpenAI reportó que ha interrumpido más de 20 operaciones dedicadas al engaño y al uso indebido de sus modelos.
Una de las principales formas en que los delincuentes están utilizando los modelos de OpenAI es para automatizar el proceso de creación de malware.
Aunque OpenAI ha integrado limitaciones que evitan usos explícitamente maliciosos, los cibercriminales han encontrado maneras de eludir estas restricciones. Aprovechan la IA para escribir código malicioso más rápido, depurar errores en el software y adaptar sus tácticas para realizar ataques de phishing más sofisticados, como se observó en el caso de SweetSpect, un grupo de amenazas de origen chino.
Operaciones cibernéticas avanzadas
OpenAI ha identificado que los actores maliciosos, como STORM-0817 en Irán, utilizan sus modelos no solo para crear malware, sino también para desarrollar infraestructuras de comando y control más eficientes. Estos actores se encuentran en fases intermedias de sus actividades, donde usan la IA para tareas específicas, como la mejora de sus herramientas o la automatización de procesos, antes de lanzar sus productos maliciosos a gran escala. Esto no solo acelera la creación de malware, sino que también permite a los delincuentes adaptar y evolucionar sus técnicas con mayor rapidez.
Vigilancia constante y medidas preventivas
A pesar de estos usos indebidos, OpenAI sigue monitoreando activamente la situación y ha logrado interrumpir numerosas operaciones. La compañía no solo se ha centrado en evitar la creación de malware, sino también en combatir la desinformación y las campañas de influencia a través de las redes sociales. Hasta la fecha, no se han registrado operaciones de influencia viral significativa relacionadas con procesos electorales, lo que indica que las medidas de seguridad de OpenAI están funcionando en gran medida. Sin embargo, el panorama sigue siendo dinámico y requiere de una vigilancia constante.
OpenAI continúa fortaleciendo sus esfuerzos para mitigar el uso indebido de sus modelos, trabajando en estrecha colaboración con gobiernos y empresas tecnológicas. Es esencial mantenerse informado y colaborar con estos actores para prevenir que la IA se convierta en una herramienta al servicio de actividades maliciosas.