Investigadors de seguretat han detectat una vulnerabilitat greu a LangChain Core, una llibreria àmpliament utilitzada per desenvolupar aplicacions d’intel·ligència artificial basades en models lingüístics (LLM).
La vulnerabilitat permet que dades manipulades per tercers es processin com si fossin fiables, la qual cosa podria provocar un accés no autoritzat a informació sensible com ara contrasenyes, claus de servei i dades internes de l’empresa. També hi ha el risc que els atacants alterin maliciosament el comportament dels agents d’IA.
Les versions afectades inclouen les darreres versions de LangChain:
- Python: versions de l’1.0.0 a l’1.2.4 i versions anteriors a la 0.3.81
- JavaScript: versions de @langchain/core anteriors a l’1.1.8 i la 0.3.80
Els desenvolupadors ja han publicat actualitzacions segures que corregeixen la vulnerabilitat:
- Python: actualitzeu a la 1.2.5 o superior, o a la 0.3.81 o superior
- JavaScript: actualitzeu a la versió 1.1.8 o superior, o a la 0.3.80 o superior
Es recomana a totes les organitzacions i desenvolupadors que revisin les seves aplicacions que utilitzen LangChain i les actualitzin immediatament a les versions parchejades. A més, és essencial tractar sempre la informació generada pels models d’IA com a poc fiable fins que no es validï, per tal de minimitzar els riscos.
Aquesta vulnerabilitat destaca la importància de la seguretat en les aplicacions d’intel·ligència artificial, especialment en entorns on els models interactuen directament amb dades i sistemes crítics.
Referències:
- https://thehackernews.com/2025/12/critical-langchain-core-vulnerability.html