OpenAI interrumpe más de 20 operaciones maliciosas, incluyendo redes dedicadas al engaño que han tratado de aprovechar sus modelos de IA. Estas actividades van desde la redacción de publicaciones para redes sociales hasta la mejora de código malicioso.
Conforme a los criterios de
De acuerdo con reportes de la empresa, cibercriminales utilizarían la inteligencia artificial (IA) para desarrollar software malicioso y realizar ataques cibernéticos, a pesar de las restricciones que la compañía ha integrado en sus modelos de lenguaje.
Según OpenAI, los delincuentes emplean su tecnología para crear y difundir contenido en redes sociales y depurar malware, lo que plantea desafíos significativos en el ámbito de la ciberseguridad.
Esta información forma parte del informe ‘Influencia y operaciones cibernéticas’, una actualización presentada en octubre de 2024 con el objetivo de analizar cómo los actores maliciosos utilizan modelos avanzados de IA para fines peligrosos, con el fin de anticiparse y mejorar las medidas de protección y aplicación de la ley.
La empresa señala que los cibercriminales suelen emplear sus modelos en fases intermedias de sus operaciones, es decir, después de haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de desplegar productos acabados, como publicaciones o programas maliciosos.
OpenAI afirma que, aunque estos actores han utilizado sus modelos, no se ha detectado un impacto significativo en términos de vulnerabilidades explotadas en el mundo real. Específicamente, “no ha derivado en la creación sustancial de nuevo malware ni en la creación de audiencias virales”.
China e Irán estarían usando ChatGPT para crear código malicioso
Entre los casos más destacados se encuentra SweetSpect, un grupo de amenazas originario de China que utilizó los modelos de OpenAI para respaldar sus operaciones cibernéticas ofensivas, al mismo tiempo que realizaba ataques de phishing dirigidos a empleados de la propia OpenAI.
Según la compañía, los atacantes se hicieron pasar por usuarios de en busca de ayuda técnica, con el objetivo de infectar los equipos de las víctimas y tomar control de ellos.
Por otro lado, el grupo iraní STORM-0817 recurrió a los modelos para depurar código y recibir asistencia en el desarrollo de un nuevo malware para Android, aún en etapas tempranas. Este malware, descrito como “relativamente rudimentario”, posee capacidades de vigilancia estándar. Además, "empleó ChatGPT para implementar la infraestructura de comando y control necesaria para sus operaciones".
A pesar de estos incidentes, OpenAI subraya que en un año en el que más de 2000 millones de personas participarán en elecciones en 50 países, no han observado “ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas".
Europa Press.
Más noticias en EL TIEMPO
*Este contenido fue reescrito con la asistencia de una inteligencia artificial, basado en información de Europa Press, y contó con la revisión de un periodista y un editor.