Grupos de amenazas respaldados por Estados están utilizando Gemini AI de Google para apoyar todas las etapas de sus operaciones cibernéticas, desde el reconocimiento inicial hasta la exfiltración de datos y el desarrollo de infraestructura de comando y control (C2).
Según un nuevo informe del Google Threat Intelligence Group (GTIG), actores vinculados a China (APT31, Temp.HEX), Irán (APT42), Corea del Norte (UNC2970) y Rusia han empleado el modelo de lenguaje para automatizar tareas ofensivas y optimizar campañas maliciosas.
¿Cómo utilizan Gemini AI los actores estatales?
El informe revela que los atacantes están usando Gemini para:
- Reconocimiento y perfilado de objetivos
- Recolección de inteligencia en fuentes abiertas (OSINT)
- Generación de phishing personalizado
- Traducción de contenido para campañas internacionales
- Desarrollo y depuración de código malicioso
- Análisis de vulnerabilidades y pruebas de explotación
- Desarrollo de infraestructura C2
- Apoyo en exfiltración de datos
Google afirma que los adversarios utilizan el modelo “desde la fase de reconocimiento hasta el desarrollo de C2 y la exfiltración”.
China: automatización de análisis de vulnerabilidades y pruebas RCE
Actores vinculados a China crearon escenarios ficticios para engañar al modelo y solicitar:
- Análisis de Remote Code Execution (RCE)
- Técnicas de evasión de WAF
- Evaluación de resultados de pruebas SQL Injection
- Planes de testing dirigidos contra objetivos en EE. UU.
En algunos casos, los atacantes adoptaron una “persona experta en ciberseguridad” para obtener respuestas más técnicas y detalladas.
Irán y Corea del Norte: phishing y desarrollo acelerado de malware
El grupo iraní APT42 utilizó Gemini para:
- Crear campañas avanzadas de ingeniería social
- Depurar herramientas maliciosas
- Generar código personalizado
- Investigar técnicas de explotación
Además, se observó abuso del modelo en la mejora de familias de malware como:
HonestCue
Framework de malware detectado en 2025 que utiliza la API de Gemini para generar código C#, compilarlo y ejecutar cargas útiles en memoria.
CoinBait
Kit de phishing disfrazado como exchange de criptomonedas, desarrollado con asistencia de herramientas de generación de código basadas en IA. Contenía artefactos que sugerían uso de plataformas como Lovable AI.
ClickFix y malware AMOS: IA en campañas de robo de información
Los ciberdelincuentes también emplearon IA generativa en campañas ClickFix, distribuyendo el malware AMOS (Atomic macOS Stealer).
Las víctimas eran atraídas mediante anuncios maliciosos en buscadores y persuadidas para ejecutar comandos manualmente bajo pretexto de solucionar problemas técnicos.
Esto demuestra cómo la IA puede potenciar la ingeniería social a gran escala.
Ataques contra el propio Gemini: extracción y destilación de modelos
El informe también destaca intentos de:
- Extracción de modelo (Model Extraction)
- Destilación de conocimiento (Knowledge Distillation)
En un caso masivo, Gemini fue sometido a 100.000 prompts automatizados destinados a replicar su lógica de razonamiento en múltiples idiomas.
Aunque esto no compromete directamente a los usuarios, representa:
- Robo de propiedad intelectual
- Riesgo comercial significativo
- Amenaza al modelo de negocio de AI-as-a-Service
La destilación permite entrenar modelos nuevos utilizando conocimiento extraído de sistemas avanzados a un coste mucho menor.
Respuesta de Google
Google informó que:
- Ha deshabilitado cuentas e infraestructura vinculadas al abuso
- Implementó defensas adicionales en los clasificadores de Gemini
- Refuerza continuamente medidas de seguridad y guardrails del modelo
La compañía sostiene que diseña sus sistemas de IA con controles robustos y realiza pruebas constantes para mitigar riesgos.
