La ciberseguridad se ha convertido en una preocupación importante para individuos, empresas y gobiernos. Sin embargo, con el avance de la inteligencia artificial (IA), los hackers están encontrando nuevas formas de llevar a cabo sus actividades maliciosas. Microsoft y OpenAI han lanzado una advertencia sobre cómo ciertos grupos respaldados por estados están utilizando modelos de lenguaje avanzados como ChatGPT para mejorar sus ataques cibernéticos.
Hackers innovan con IA para ciberataques
Según investigaciones publicadas por Microsoft y OpenAI, se han detectado intentos por parte de grupos respaldados por Rusia, Corea del Norte, Irán y China que utilizan estas herramientas para perfeccionar desde la investigación de objetivos hasta la creación de técnicas de ingeniería social. Estos actores amenazantes están explorando y probando diferentes tecnologías de IA a medida que emergen, en un intento por comprender el valor potencial para sus operaciones y los controles de seguridad que pueden necesitar eludir.
El uso diversificado de modelos lingüísticos grandes (LLM)
Los LLM como ChatGPT no solo ofrecen ventajas significativas en términos de productividad e innovación; también representan una herramienta potente que puede ser mal utilizada. Por ejemplo, el grupo Strontium vinculado a la inteligencia militar rusa ha estado usando LLMs «para entender protocolos de comunicación vía satélite e imaginería radar», así como para ayudar con «tareas básicas de scripting». Del mismo lado oscuro del espectro digital, Thallium, un grupo norcoreano, ha utilizado estos modelos para investigar vulnerabilidades reportadas públicamente y redactar contenido para campañas de phishing.
Estrategias defensivas: El Copiloto de Seguridad
Frente a este panorama desafiante, Microsoft está desarrollando su propio asistente basado en IA llamado Security Copilot. Diseñado específicamente para profesionales en ciberseguridad, este sistema busca identificar brechas y comprender mejor la gran cantidad de señales y datos generados a través de herramientas diarias. La solución propuesta por Microsoft se centra en utilizar IA para responder a ataques impulsados por IA.
Colaboración intersectorial contra usos maliciosos
OpenAI, colaborando estrechamente con Microsoft Threat Intelligence Center, ha logrado interrumpir las actividades cibernéticas maliciosas llevadas a cabo por cinco actores afiliados al estado que buscaban utilizar servicios basados en IA. Esta colaboración subraya un compromiso voluntario con el desarrollo seguro y transparente del uso tecnológico.
Riesgos futuros: Impersonificación vocal e inteligencia artificial fraudulenta
Mientras que el uso actualizado del AI en ciberataques parece ser limitado actualmente, existe preocupación sobre futuros casos como la impersonificación vocal mediante síntesis vocal avanzada. Esto plantea preocupaciones críticas ya que muestras vocales tan breves como un saludo en un buzón podrían ser suficientes para entrenar modelos capaces de imitar voces específicas.
Conclusión: Anticiparse es clave
Aunque aún no se han observado ataques significativos empleando LLMs monitoreados estrechamente por Microsoft y OpenAI, es fundamental publicar esta investigación para exponer movimientos tempranos e incrementales observados entre actores conocidos amenazantes e informar cómo estamos bloqueándolos y contrarrestándolos junto con la comunidad defensora. A medida que los atacantes mantengan su interés en la IA y sondeen las capacidades actuales y los controles de seguridad tecnológicos, es importante mantener estos riesgos bajo perspectiva práctica aplicando prácticas higiénicas tales como autenticación multifactor (MFA) y defensas Zero Trust.
«La mayoría usa nuestros sistemas para mejorar sus vidas diarias… pero hay unos pocos actores maliciosos que requieren atención continua para que todos puedan seguir disfrutando los beneficios», señala OpenAI mientras reafirma su compromiso con minimizar posibles abusos por parte dichos actores.
En resumen, tanto Microsoft como OpenAI continúan su labor vigilante frente al mal uso potencial o abuso dentro del ámbito digital asegurándose así proteger mejor a sus usuarios contra futuras amenazas o daños.
Preguntas Frecuentes
¿Qué tipo de ciberataques están utilizando los hackers con modelos de lenguaje como los de OpenAI?
Los hackers están aprovechando modelos de lenguaje avanzados para generar correos electrónicos de phishing y mensajes de ingeniería social que parecen increíblemente legítimos. Estos ataques pueden engañar a los usuarios para que revelen información sensible o hagan clic en enlaces maliciosos.
¿Cómo pueden las empresas protegerse contra estos ciberataques impulsados por IA?
Las empresas deben reforzar su seguridad informática con soluciones avanzadas y capacitar a sus empleados sobre las nuevas tácticas de phishing. Además, es crucial mantener sistemas actualizados y realizar auditorías de seguridad periódicas para identificar y mitigar vulnerabilidades.