Lo ha confirmado OpenAI. Durante las últimas semanas sus ingenieros han identificado más de 20 ciberataques orquestados con ChatGPT y otras herramientas de modelos de lenguaje extendidos (LLM). Los autores, según los técnicos de OpenAI, son hackers chinos e iraníes que han encontrado la forma de utilizar estas herramientas de inteligencia artificial (IA) para desarrollar malware, depurarlo y llevar a cabo otras actividades maliciosas.
El primer ataque realizado con ChatGPT fue planificado por activistas chinos y tuvo como objetivo varios Gobiernos de países asiáticos. Curiosamente, este ataque empleó una estrategia de spear-phishing conocida como 'SweetSpecter'. Este método utiliza un archivo ZIP que incorpora un fichero malicioso, de manera que si se descarga y se abre es capaz de infectar el sistema del usuario. Los ingenieros de OpenAI descubrieron que 'SweetSpecter' fue creado empleando varias cuentas que usaron ChatGPT para escribir el código y descubrir vulnerabilidades.
Esta es la otra cara de la inteligencia artificial
El segundo ataque optimizado con IA fue perpetrado por un grupo con sede en Irán conocido como 'CyberAv3ngers'. En esta ocasión esta organización utilizó ChatGPT para explotar vulnerabilidades y robar las contraseñas de usuarios de equipos con macOS. Y el tercero fue planificado por un grupo conocido como 'Storm-0817', también con sede en Irán. En esta ocasión utilizaron ChatGPT para desarrollar un software malicioso para Android capaz de robar listas de contactos, acceder a registros de llamadas y al historial del navegador.
Según OpenAI todos los ataques en los que ha intervenido ChatGPT se han elaborado utilizando métodos perfectamente conocidos
Según OpenAI todos los ataques en los que ha intervenido ChatGPT se han elaborado utilizando métodos perfectamente conocidos, por lo que los hackers chinos e iraníes no parecen haber desarrollado ningún método original. La consecuencia más evidente de estas prácticas es que no han desarrollado ninguna variante de malware sustancialmente nueva. Sin embargo, el problema es que estos ciberataques nos recuerdan lo sencillo que es para los hackers con unos conocimientos mínimos recurrir a la IA para desarrollar software malicioso con una capacidad dañina muy importante.
OpenAI ha confirmado que seguirá mejorando su tecnología para prevenir que pueda ser utilizada con fines maliciosos. No obstante, mientras tanto ha creado varios equipos de trabajo especializados en seguridad y protección que compartirán sus hallazgos con otras empresas y con la comunidad para intentar evitar que se repitan más ciberataques como estos. En cualquier caso, es evidente que no solo OpenAI debe tomar estas medidas. Las demás compañías propietarias de modelos de IA generativa deberían seguir sus pasos en este ámbito.
Imagen | Tima Miroshnichenko
Más información | OpenAI
En Xataka | La mayor amenaza de ciberseguridad para China no es Estados Unidos: son los hackers de India
Ver 7 comentarios
7 comentarios
ayrton_senna
OpenAI tratando de llamar la atención ahora que todo el mundo le ignora.
Una máquina de quemar dinero sin ningún plan de rentabilidad a medio/largo plazo y con una tecnología muy inferior a la competencia en relación coste/eficiencia.
Antrophic o Mistral han conseguido lo mismo gastando 100 veces menos. Y Google o Facebook gastando 10 veces menos.
Este Sam Altman aburre a las moscas con sus tonterías. Un constante "dadme pasta y más pasta que quiero ser el más rico del cementerio".
moderntimes
De los ataques de las agencias gubernamentales de EE UU e Israel no se suele hablar.
Por cierto, echo de menos la correspondiente mención a Rusia; y a Corea del Norte, ya puestos con el "eje del mal".
vanaxmi
Quién lo hubiera imaginado...
carloslópez_1
Si, porque el hardware a irán no le sale
pedrosalguera
Una dictadura teocrática y otra criminal con decenas de millones de muertos a sus espaldas contra nosotros, y gente que son sus potenciales víctimas, defendiéndoles, sin pararse a pensar un momento lo que están haciendo
Jamás entenderé estos comportamientos irracionales suicidas