Upgrade to Pro — share decks privately, control downloads, hide ads and more …

LangChain4j - Des applications IA prêtes pour l...

Avatar for Mohamed AIT ABDERRAHMAN Mohamed AIT ABDERRAHMAN
November 12, 2025
18

LangChain4j - Des applications IA prêtes pour la production

Les applications IA entrent dans une nouvelle ère, celle où elles doivent être fiables, traçables et sécurisées dès la mise en production.
Trop souvent, les projets LLM tombent dans le piège de la démo “magique” : prompts non maîtrisés, absence de tests, dérives de coûts, et aucun moyen de comprendre ce que le modèle fait vraiment. Ces lacunes freinent l’adoption en entreprise et rendent difficile la mise en prod.
Dans cette conférence, découvrez comment LangChain4j, avec l'aide de Quarkus, permettent d’ajouter des garde-fous robustes, d’écrire des tests non déterministes dédiés aux LLM, et d’améliorer l’observabilité de vos flux conversationnels. Le tout démontré en code, étape par étape.
Repartez avec les bonnes pratiques et snippets prêts à l’emploi pour rendre vos applications IA "production-ready".

Avatar for Mohamed AIT ABDERRAHMAN

Mohamed AIT ABDERRAHMAN

November 12, 2025
Tweet

Transcript

  1. Comment éviter que n’importe qui peut utiliser mon LLM comme

    il veut ? Ai Java Developer Si je modifie le prompt, comment le tester avant la mise en prod ? Comment observer les interactions avec mon LLM ?
  2. 14 C’est quoi ? https://docs.langchain4j.dev/tutorials/guardrails Vérifier si le message de

    l’utilisateur n’est pas hors contexte Eviter les prompt injections Vérifier que le format de sortie est correct S’assurer que la sortie du LLM est cohérente avec les règles métiers et les contraintes Détecter les hallucinations
  3. 15 Comment ? dev.langchain4j.guardrail.* << interface >> InputGuardrail InputGuardrailResult validate(UserMessage)

    InputGuardrailResult validate(InputGuardrailRequest) << interface >> OutputGuardrail OutputGuardrailResult validate(AiMessage) OutputGuardrailResult validate(OutputGuardrailRequest)
  4. Concepts Scorer : l’évaluateur Samples : les cas de test

    Evaluation Strategy : la stratégie d’évaluation (similarité ou juge) Evaluation Report : Le résultat de l’évaluation
  5. C’est quoi ? https://docs.quarkiverse.io/quarkus-langchain4j/dev/observability.html Métriques : le « quoi »

    et le « à quelle fréquence » Traces : le « pourquoi » et le « où » Logs : le « ce qui s’est réellement passé »
  6. Pourquoi ? Pour comprendre le comporte en production Pour détecter

    les dérives Pour corréler une sortie anormale avec le contexte, le prompt, ou la version du modèle utilisé Pour mesurer la qualité et la fiabilité des réponses Pour anticiper les régressions après une mise à jour
  7. Takeaway Toujours valider ce qui entre et sort du LLM

    Tester, même dans un contexte non déterministe Observer pour comprendre On ne peut pas améliorer ce qu’on ne mesure pas
  8. Repo git : https://github.com/anunnakian/langchain4j-new-features Documentation : Guardrails: https://docs.langchain4j.dev/tutorials/guardrails Testing :

    https://docs.quarkiverse.io/quarkus-langchain4j/dev/testing.html Observability : https://docs.quarkiverse.io/quarkus-langchain4j/dev/observability.html Links