OpenAI Alerta Sobre el Uso de ChatGPT por Hackers de China e Irán para Ciberataques
En un informe reciente, OpenAI reveló que hackers patrocinados por los estados de China e Irán han estado utilizando herramientas de inteligencia artificial generativa, como ChatGPT, para llevar a cabo ciberataques y manipulación informativa. El informe detalla más de 20 operaciones cibernéticas y de influencia en las que los hackers emplearon IA para desarrollar malware, ejecutar ataques de phishing y lanzar campañas de desinformación en redes sociales, lo cual plantea serias preocupaciones sobre el mal uso de estas tecnologías emergentes.
El Impacto de ChatGPT en Ciberataques y Malware
Los actores estatales, particularmente los grupos iraníes como CyberAv3ngers y STORM-0817, han utilizado ChatGPT para explorar vulnerabilidades y preparar ataques cibernéticos. En el caso del grupo CyberAv3ngers, este se apoyó en la IA para identificar puntos vulnerables en sistemas de control industrial y así atacar servicios de agua en Estados Unidos e Irlanda. Estos ataques llevaron a interrupciones temporales en el suministro de agua en varias localidades, incluyendo Aliquippa, Pensilvania, y el condado de Mayo, Irlanda. Aunque las técnicas empleadas no eran nuevas, el uso de la IA facilitó la ejecución más eficiente de los ataques, especialmente en la fase de reconocimiento y explotación de vulnerabilidades.
Por otro lado, el grupo chino SweetSpecter utilizó ChatGPT para enviar correos electrónicos maliciosos disfrazados de solicitudes de soporte, con el objetivo de comprometer cuentas de empleados de OpenAI. En uno de los ataques, se enviaron archivos ZIP con un malware llamado “SugarGh0st RAT”, que si eran abiertos, permitían a los atacantes obtener el control del dispositivo afectado.
Manipulación y Desinformación con IA
El informe también describe cómo se ha utilizado ChatGPT para lanzar campañas de desinformación. Por ejemplo, la operación A2Z utilizó IA para generar contenido que promovía a Azerbaiyán como un proveedor clave de energía para Europa, minimizando las críticas sobre su historial de derechos humanos. Este contenido fue difundido en plataformas como X (anteriormente Twitter) y Facebook, buscando influir en la opinión pública. Otra operación denominada Stop News, liderada por un grupo ruso, creó sitios web falsos que simulaban ser medios de comunicación en África y el Reino Unido, con contenido generado por ChatGPT y DALL·E. Aunque la mayoría de estos esfuerzos no alcanzó gran repercusión, muestran cómo la IA está siendo integrada en diferentes etapas de campañas de influencia.
Un caso inusual fue una publicación viral en X, en la que trolls rusos difundieron un mensaje falso que aparentaba ser un error de ChatGPT al apoyar contenido favorable al ex presidente estadounidense Donald Trump. Este incidente reflejó cómo la desinformación puede amplificarse incluso cuando el origen del mensaje no es verídico.
Mejoras en Seguridad y Medidas Preventivas
En respuesta a estas amenazas, OpenAI ha fortalecido sus protocolos de seguridad y ha creado equipos especializados en la detección y prevención del uso malicioso de sus modelos de IA. Además, la empresa colabora con otras compañías tecnológicas y organizaciones gubernamentales para compartir información sobre amenazas emergentes y coordinar acciones preventivas. También se está promoviendo la creación de algoritmos más robustos para detectar y bloquear actividades maliciosas antes de que se conviertan en amenazas reales.
Es evidente que la combinación de herramientas de IA con técnicas tradicionales de ciberataques representa un desafío importante para la industria de la ciberseguridad. Aunque las capacidades de ChatGPT no han llevado a la creación de malware completamente nuevo, sí han optimizado la capacidad operativa de los atacantes, permitiéndoles reducir los tiempos de desarrollo y personalizar ataques como phishing de manera más precisa.
El uso de la inteligencia artificial en ciberataques plantea riesgos significativos, tanto para la seguridad cibernética como para la confianza en la información que circula en la web. La capacidad de los hackers para explotar herramientas como ChatGPT resalta la necesidad urgente de establecer medidas de seguridad más efectivas y promover la colaboración entre empresas y gobiernos. Para más información sobre cómo protegerse contra estas amenazas emergentes, visita fernandojuca.com y nuestro canal de YouTube en youtube.com/fernandojucamaldonado.