Investigadores de seguridad han detectado una vulnerabilidad grave en LangChain Core, una librería ampliamente utilizada para desarrollar aplicaciones de inteligencia artificial basadas en modelos de lenguaje (LLM).
El fallo permite que datos manipulados por terceros sean procesados como si fueran confiables, lo que podría derivar en acceso no autorizado a información sensible, como contraseñas, claves de servicios y datos internos de las empresas. También existe el riesgo de que los atacantes alteren el comportamiento de los agentes de IA de manera maliciosa.
Las versiones afectadas incluyen la mayoría de releases recientes de LangChain:
Python: versiones desde la 1.0.0 hasta la 1.2.4 y versiones anteriores a la 0.3.81
JavaScript: versiones de
@langchain/coreanteriores a la 1.1.8 y a la 0.3.80
Los desarrolladores ya han publicado actualizaciones seguras que corrigen la vulnerabilidad:
Python: actualizar a 1.2.5 o superior, o a 0.3.81 o superior
JavaScript: actualizar a la versión 1.1.8 o superior, o a 0.3.80 o superior
Se recomienda a todas las organizaciones y desarrolladores que revisen sus aplicaciones que utilicen LangChain y actualicen de inmediato a las versiones parcheadas. Además, es fundamental tratar siempre la información generada por los modelos de IA como no confiable hasta ser validada, para minimizar riesgos.
Esta vulnerabilidad subraya la importancia de la seguridad en aplicaciones de inteligencia artificial, especialmente en entornos donde los modelos interactúan con datos y sistemas críticos de manera directa.
Referencias:
- https://thehackernews.com/2025/12/critical-langchain-core-vulnerability.html