"On va mettre un cache, ça ira plus vite."
Cette phrase a déjà coûté des nuits blanches à bien des équipes.
Le cache est souvent introduit comme une "optimisation" rapide à mettre en place. En réalité, il transforme profondément le comportement d'un système : cohérence éventuelle, données obsolètes, effets de bord distribués... et bugs impossibles à reproduire. Aujourd'hui, ces mêmes défis réapparaissent dans les architectures intégrant des LLMs, avec l'émergence de modèles comme le semantic caching.
Partons ensemble pour un voyage pragmatique dans le monde du cache :
- ce qu'est réellement un cache (et ce qu'il n'est pas),
- les principaux patterns de caching et leurs compromis,
- les anti-patterns classiques qui transforment une application rapide en cauchemar opérationnel,
- un arbre de décision pour choisir la bonne stratégie.
Cette session vous donnera les outils pour construire des systèmes rapides et prévisibles, et vous aidera à ne plus jamais considérer le cache comme un simple détail d'implémentation.