
Pour les développeurs qui travaillent dans le domaine de l'IA, l'industrie évolue si rapidement que nous privilégions souvent la rapidité et l'exécution avant tout. Afin de suivre les dernières évolutions, de nombreux développeurs et entreprises se tournent vers des outils d'IA open source. L'un des outils les plus populaires aujourd'hui est LangChain, un framework open source pour la création d'applications d'IA. Il y a un peu plus d'un an, Microsoft a lancé l'initiative Secure Future Initiative (SFI) afin d'améliorer la sécurité de Microsoft, de ses clients et du secteur dans son ensemble. Cette initiative inclut l'open source, avec pour objectif d'aider les développeurs à innover librement, non seulement rapidement, mais aussi en toute sécurité.
En Python, LangChain est désormais plus téléchargé qu'OpenAI sur PyPI. Source : LangChain Interrupt 2025 Keynote
Si vous développez des applications d'IA pour les entreprises, LangChain fournit des éléments de base pour les architectures multi-agents et une gamme de grands modèles de langage (LLM) et d'intégrations de stockage vectoriel fournis par des tiers. Si son vaste écosystème communautaire offre de nombreux avantages, son réseau d'intégrations partenaires peut soulever des questions de sécurité auxquelles nous devons prêter attention.
Les recommandations de Microsoft en matière de sécurité de l'IA soulignent deux risques principaux liés aux applications basées sur les LLM :
- Fuite d'informations : des données sensibles sont involontairement exposées à des parties non autorisées, ce qui peut entraîner des violations de données.
- Élévation des privilèges : lorsqu'un utilisateur obtient des niveaux d'accès plus élevés que prévu, ce qui lui permet d'effectuer des actions non autorisées.
LangChain fournit des centaines d'intégrations à des services tiers, y compris de nombreuses technologies expérimentales. En raison de la nature des flux agentifs, la création d'applications basées sur le LLM implique souvent l'exécution et l'évaluation de code, ainsi que le traitement de données. Tous ces éléments exposent les applications aux risques mentionnés ci-dessus.
Microsoft s'engage à aider les développeurs et les entreprises à adopter en toute sécurité les dernières innovations, y compris l'open source. Nous accordons une grande importance à l'open source et maintenons deux frameworks d'agents IA ouverts, Semantic Kernel et Autogen. Nous avons également contribué à améliorer la sécurité de certains des plus grands projets et écosystèmes OSS. Conformément à cette mission, notre équipe de sécurité a examiné LangChain au début de l'année et a identifié plusieurs problèmes de sécurité dans langchain-community, le package d'intégrations tierces de LangChain, et langchain-experimental, le package du projet destiné à la recherche et à l'utilisation expérimentale. Bien que ces deux packages soient facultatifs, ils pourraient être utilisés par des clients qui ne connaissent pas la distinction entre LangChain core, community et experimental.
LangChain dispose d'un vaste écosystème comprenant les packages qu'il fournit, les intégrations officielles des fournisseurs et les intégrations tierces de la communauté.
Nous avons constaté une augmentation du nombre de développeurs et d'entreprises utilisant LangChain et LangGraph. Nous avons donc pris ces problèmes au sérieux et avons contacté LangChain afin de définir une marche à suivre. Michael Scovetta, responsable principal de la sécurité chez Microsoft, a déclaré à ce sujet :

Nous sommes ravis de nous associer à LangChain pour résoudre ces problèmes de sécurité, en commençant par les intégrations Azure, puis en passant à une couverture complète de LangChain. Harrison Chase, PDG de LangChain, déclare :

Nous avons travaillé avec l'équipe LangChain pour créer un mono-référentiel LangChain-Azure, et ensemble, nous visons à faire d'Azure l'endroit le plus sûr pour développer avec l'IA ! Pour commencer avec Python, vous pouvez accéder à notre catalogue complet de modèles d'IA depuis Azure AI Foundry en installant notre nouveau package Azure AI. Exécutez :
Code : | Sélectionner tout |
pip install langchain-azure-ai
Et exécutez le code suivant :
Code Python : | Sélectionner tout |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 | from langchain_azure_ai.chat_models import AzureAIChatCompletionsModel from langchain_core.messages import HumanMessage, SystemMessage model = AzureAIChatCompletionsModel( endpoint="https://{your-resource-name}.services.ai.azure.com/models", credential="your-api-key", model= "deepseek/DeepSeek-R1-0528" ) messages = [ HumanMessage(content="Translate the following from English into Italian: 'hi!'") ] message_stream = model. stream(messages) print("".join(chunk.content for chunk in message_stream)) |
Vous pouvez également accéder à Azure AI Foundry dans JavaScript en utilisant le nouveau package langchain-azure-js dans LangChain. Nous avons également mis à jour le package LangChain4J, créé et détenu par la communauté, destiné aux développeurs Java.
À l'avenir, nous pensons que notre travail avec LangChain fournira un modèle aux développeurs d'IA qui créent des logiciels open source. Microsoft fonctionne sur la base de la confiance, et nous continuerons à travailler de manière transparente afin de garantir la sécurité des applications d'IA créées avec ce framework sur Azure.
Source : Microsoft and LangChain: Leading the Way in AI Security for Open Source on Azure
Et vous ?

Voir aussi :



Vous avez lu gratuitement 64 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.