Google alerta de que Hackers estatales se están Abusando de Gemini AI

Grupos de amenazas respaldados por Estados están utilizando Gemini AI de Google para apoyar todas las etapas de sus operaciones cibernéticas, desde el reconocimiento inicial hasta la exfiltración de datos y el desarrollo de infraestructura de comando y control (C2).

Según un nuevo informe del Google Threat Intelligence Group (GTIG), actores vinculados a China (APT31, Temp.HEX), Irán (APT42), Corea del Norte (UNC2970) y Rusia han empleado el modelo de lenguaje para automatizar tareas ofensivas y optimizar campañas maliciosas.

¿Cómo utilizan Gemini AI los actores estatales?

El informe revela que los atacantes están usando Gemini para:

  • Reconocimiento y perfilado de objetivos
  • Recolección de inteligencia en fuentes abiertas (OSINT)
  • Generación de phishing personalizado
  • Traducción de contenido para campañas internacionales
  • Desarrollo y depuración de código malicioso
  • Análisis de vulnerabilidades y pruebas de explotación
  • Desarrollo de infraestructura C2
  • Apoyo en exfiltración de datos

Google afirma que los adversarios utilizan el modelo “desde la fase de reconocimiento hasta el desarrollo de C2 y la exfiltración”.

China: automatización de análisis de vulnerabilidades y pruebas RCE

Actores vinculados a China crearon escenarios ficticios para engañar al modelo y solicitar:

  • Análisis de Remote Code Execution (RCE)
  • Técnicas de evasión de WAF
  • Evaluación de resultados de pruebas SQL Injection
  • Planes de testing dirigidos contra objetivos en EE. UU.

En algunos casos, los atacantes adoptaron una “persona experta en ciberseguridad” para obtener respuestas más técnicas y detalladas.

Irán y Corea del Norte: phishing y desarrollo acelerado de malware

El grupo iraní APT42 utilizó Gemini para:

  • Crear campañas avanzadas de ingeniería social
  • Depurar herramientas maliciosas
  • Generar código personalizado
  • Investigar técnicas de explotación

Además, se observó abuso del modelo en la mejora de familias de malware como:

HonestCue

Framework de malware detectado en 2025 que utiliza la API de Gemini para generar código C#, compilarlo y ejecutar cargas útiles en memoria.

CoinBait

Kit de phishing disfrazado como exchange de criptomonedas, desarrollado con asistencia de herramientas de generación de código basadas en IA. Contenía artefactos que sugerían uso de plataformas como Lovable AI.

ClickFix y malware AMOS: IA en campañas de robo de información

Los ciberdelincuentes también emplearon IA generativa en campañas ClickFix, distribuyendo el malware AMOS (Atomic macOS Stealer).

Las víctimas eran atraídas mediante anuncios maliciosos en buscadores y persuadidas para ejecutar comandos manualmente bajo pretexto de solucionar problemas técnicos.

Esto demuestra cómo la IA puede potenciar la ingeniería social a gran escala.

Ataques contra el propio Gemini: extracción y destilación de modelos

El informe también destaca intentos de:

  • Extracción de modelo (Model Extraction)
  • Destilación de conocimiento (Knowledge Distillation)

En un caso masivo, Gemini fue sometido a 100.000 prompts automatizados destinados a replicar su lógica de razonamiento en múltiples idiomas.

Aunque esto no compromete directamente a los usuarios, representa:

  • Robo de propiedad intelectual
  • Riesgo comercial significativo
  • Amenaza al modelo de negocio de AI-as-a-Service

La destilación permite entrenar modelos nuevos utilizando conocimiento extraído de sistemas avanzados a un coste mucho menor.

Respuesta de Google

Google informó que:

  • Ha deshabilitado cuentas e infraestructura vinculadas al abuso
  • Implementó defensas adicionales en los clasificadores de Gemini
  • Refuerza continuamente medidas de seguridad y guardrails del modelo

La compañía sostiene que diseña sus sistemas de IA con controles robustos y realiza pruebas constantes para mitigar riesgos.