Un nuevo informe de seguridad ha encendido las alarmas en el ecosistema de desarrollo de inteligencia artificial.
Investigadores de Cyera han revelado tres vulnerabilidades críticas en LangChain y LangGraph, dos de los frameworks más utilizados para construir aplicaciones de IA empresariales.
Graves vulnerabilidades encontradas LangChain
El impacto potencial es amplio: acceso a archivos locales, robo de credenciales y filtración de historiales completos de conversaciones en sistemas de producción.
3 Vulnerabilidades, tres puntos de entrada
Las fallas afectan distintas capas de la arquitectura de aplicaciones construidas sobre LangChain:
CVE-2026-34070: acceso a archivos del sistema
Esta vulnerabilidad permite ataques de path traversal en la API de carga de prompts.
En la práctica, un atacante podría:
- Leer archivos arbitrarios del sistema
- Acceder a configuraciones sensibles (como Docker o entornos cloud)
- Explorar estructuras internas de despliegues de IA
El problema surge al procesar plantillas de prompts manipuladas.
CVE-2025-68664: robo de secretos de entorno
La vulnerabilidad más grave (CVSS 9.3) afecta a los procesos de serialización.
Permite que un atacante:
- Extraiga variables de entorno
- Robe claves API de modelos de lenguaje
- Acceda a credenciales de bases de datos y servicios cloud
En esencia, convierte operaciones normales de agentes en un canal de filtración de secretos.
CVE-2025-67644: inyección SQL en historiales de IA
Esta vulnerabilidad afecta a LangGraph en su sistema de almacenamiento de checkpoints.
Un atacante puede:
- Ejecutar consultas SQL arbitrarias
- Manipular o extraer historiales de conversación
- Acceder a datos almacenados en bases SQLite
Esto compromete directamente la capa de memoria de los agentes de IA.
Parcheado rápido, pero riesgo persistente
Los desarrolladores han publicado correcciones en distintas versiones de los paquetes afectados, incluyendo:
- langchain-core 1.2.22
- langchain-core 0.3.81 y 1.2.5
- langgraph-checkpoint-sqlite 3.0.1
Sin embargo, el problema no desaparece automáticamente, ya que muchos sistemas empresariales tardan semanas o meses en actualizar dependencias críticas.
Un patrón de explotación acelerada
El informe de Cyera se publica poco después de otro incidente en el ecosistema relacionado, donde vulnerabilidades en plataformas como Langflow fueron explotadas en cuestión de horas tras su divulgación.
Según investigadores de seguridad, atacantes están usando incluso descripciones de vulnerabilidades públicas para construir exploits antes de que existan pruebas de concepto disponibles.
Efecto dominó en el ecosistema de IA
Uno de los mayores riesgos de LangChain es su posición central en el desarrollo de aplicaciones de IA.
Miles de herramientas, wrappers e integraciones dependen de este framework, lo que significa que:
- Una vulnerabilidad en el núcleo se propaga a múltiples sistemas
- Las capas superiores heredan automáticamente el riesgo
- El impacto se multiplica en entornos empresariales complejos
Esto convierte a LangChain en un punto crítico dentro de la infraestructura moderna de IA.
