Slide 1

Slide 1 text

L’art d'inspecter son Value Stream Stratégies pour avoir de l’impact

Slide 2

Slide 2 text

Qu'est-ce qui vous choque vous regardez les indicateurs agiles de votre équipe ? (ou de l'une de vos équipes)

Slide 3

Slide 3 text

INTRO & PRÉAMBULE

Slide 4

Slide 4 text

Situation familière ? Équipe occupée mais les délais de livraison sont en régression… Value Stream cartographié, indicateurs DORA en place. Trop de choses à voir en même temps ! Par où commencer ? On a « installé » Scrum et l’agilité à l’échelle, mais l’efficience tarde à se montrer

Slide 5

Slide 5 text

Constats sur le terrain Il est donc important d’avoir les compétences pour se servir des indicateurs afin de s’améliorer Les organisations recherchent à être davantage efficientes mais plusieurs facteurs sont en jeu Variabilité et incertitude Mesurer la complexité des systèmes Sous-estimation des risques

Slide 6

Slide 6 text

Votre conférencier : Karl Métivier • Coach Agile Senior • Enthousiaste du Value Stream et du Kanban • Promoteur du DevOps et de la Livraison en continu • Travaille chez Beneva depuis quelques jours…

Slide 7

Slide 7 text

Au menu aujourd’hui • Exemples d’inspections (avec votre participation) • Stratégies dans la sélection d’indicateurs • Posture “Data-Driven” • Conclusion

Slide 8

Slide 8 text

EXEMPLES D’INSPECTIONS

Slide 9

Slide 9 text

Notation Value Stream (Chaîne de valeur) Dev Code Review Build & Test PT: 2j %R: 40% 2j PT: 0.25j 0.5j 0.5j 3j Process Time (PT): Temps pour faire le travail sans interruption, ni délais Temps de délais: Temps écoulé entre la fin d’une activité et le début de l’autre. % de Reprise (Rework): % du travail qui a dû être repris avant de poursuivre

Slide 10

Slide 10 text

No content

Slide 11

Slide 11 text

Celui avec autant de temps de validation que de réalisation

Slide 12

Slide 12 text

No content

Slide 13

Slide 13 text

Celui avec un temps de déploiement élevé

Slide 14

Slide 14 text

No content

Slide 15

Slide 15 text

Celui avec un long temps passé dans le « Upstream »

Slide 16

Slide 16 text

No content

Slide 17

Slide 17 text

Celui avec une colonne bloquée • Inspecter quand les colonnes du « board » de l’équipe ne correspondent pas au processus • Une colonne bloquée peut devenir un fourre-tout que l’on oublie • Un item avec un « tag » bloqué qui compte dans la limite de WIP d’une colonne

Slide 18

Slide 18 text

Débit / Flow Velocity Items de travail complété par semaine

Slide 19

Slide 19 text

Celui avec un flux ou flux ou débit instable • Investiguer pour savoir pourquoi le flux est relativement inégal. Hypothèses probables: • Beaucoup de « restants » de sprint qui bascule (et se font fermer dans le prochain sprint) • Instabilité dans les environnements ou dépendance externe ? • Surestimation de la capacité de l’équipe • Que dit la tendance (« Trend ») ? Vers le haut ou le bas ?

Slide 20

Slide 20 text

No content

Slide 21

Slide 21 text

Celui avec un nombre élevé d’étapes (18) • Le nombre d’étapes ou d’activités peut dénoter la complexité (lourdeur) de notre processus. Il faut alors se questionner: • Davantage en contrôle qualité qu’en assurance-qualité • Silos basés sur l’expertise (analyse, design, code, test) • Culture de non-confiance dans l’organisation ?

Slide 22

Slide 22 text

Parmi les exemples mentionnés, lequel est le plus fréquent dans votre contexte:

Slide 23

Slide 23 text

STRATÉGIES DANS LA SÉLECTION D’INDICATEURS

Slide 24

Slide 24 text

Suivre une seule mesure (ou une seule sorte) • Mettre le focus sur une seul mesure nous rend myope dans notre amélioration du système

Slide 25

Slide 25 text

Suggestions de Troy Magennis (math coach) • Plusieurs indicateurs et non un seul et unique • Tendance plus que les chiffres • L'équipe plutôt que l'individu • Un contexte similaire pour tous les items et équipes • Montrez-moi quand il faut s’inquiéter !

Slide 26

Slide 26 text

The Flaw of Averages Alternatives aux « moyennes » • Analyse sur la distribution (ex: histogramme) pour éviter le focus sur un seul nombre • Prévisions avec des simulations Monte Carlo • Toujours tenir compte de la variabilité avec des données historiques • Utiliser les percentiles (70e, 85e) https://sketchplanations.com/sneaky-averages

Slide 27

Slide 27 text

On peut faire dire n’importe quoi aux indicateurs • Il y a plusieurs manières de faire varier les indicateurs • Intervalle de dates • Filtrer des types d’items • Éviter de tomber dans le piège des indicateurs « melon d’eau » et plutôt rester transparent. • Faut faire attention à tout cela et se rappeler les objectifs avant tout. • Porter attention aux « patterns » au lieu de la précision https://sketchplanations.com/you-get-what-you-measure

Slide 28

Slide 28 text

Indicateurs DevOps (DORA) 2. Fréquence de déploiement 1. Délai de changement 4. Temps moyen de restauration 3. Taux d’échec des modifications Ref: https://dora.dev/guides/value-stream-management/

Slide 29

Slide 29 text

Sélection d’indicateurs pour une équipe Troy Magennis

Slide 30

Slide 30 text

En bref, quand on investigue un value stream • Analyser et mettre des hypothèses sur des corrélations potentielles. • Les données ont de l’importance car elles nous permettent de • Comprendre davantage notre réalité • Voir les opportunités • Poser des questions pour mieux comprendre ce qui se passe • Avoir des discussions d’équipe avec des faits • On doit alors être critique de la manière donc on recueille nos données.

Slide 31

Slide 31 text

DATA-DRIVEN COMME POSTURE DE COACHING

Slide 32

Slide 32 text

Quantitatif • Objectivité • Outils • Données • Perception • Expérience • Storytelling Qualitatif Tout ne doit pas être objectif dans notre analyse !

Slide 33

Slide 33 text

La discussion doit faire partie des indicateurs • Aller chercher l’opinion des gens et le côté qualitatif • Discuter des indicateurs fait partie d’une bonne gestion du changement. Ne pas le faire pour embarrasser le gens. • Le but est de s’améliorer et être plus efficient, non pas d’évaluer une équipe et des personnes. • Rappeler qu’on mesure les tâches dans le système, pas les gens • La direction veut aussi comprendre comment les affaires vont, ce qui vous ralenti, les liens inter-équipes pour identifier des améliorations à l’échelle.

Slide 34

Slide 34 text

Exemples de formulation invitant à la discussion: • Qu'est-ce qui vous fait le plus mal en ce moment ? • C'est quoi le lien que vous faites avec ces indicateurs • Voici les données du dernier sprint. Qu’en pensez-vous ? • Est-ce que cela représente votre expérience vécue durant le sprint ? Pourquoi ? • Je remarque ceci (…). À votre place j’essayerais de (…)

Slide 35

Slide 35 text

Informez-vous des objectifs de la direction • Toujours aller s’informer sur les enjeux au niveau de la gestion/direction. • Cela ne donne pas d’impacts de travailler sur des éléments qui importes peu pour la direction. • La direction veut parler en dollars, en temps et en capacité. • Traduire les indicateurs et les pratiques en ces termes

Slide 36

Slide 36 text

Même une mauvaise qualité des données est un indice • On ferme les « work items » uniquement à la fin du sprint, c’est pour cela que tout prend environ 3 semaines • Hmm. Et si vous les fermiez au fur et à mesure pour avoir des données qui représentent vraiment votre travail ? • Attachez cela à un comportement existant. • Ex: le daily du lundi, on valide le statut des divers « work items » : tâches, user story, feature, epic, etc.

Slide 37

Slide 37 text

Imposer des cibles avec des limites https://sketchplanations.com/goodharts-law Exemples de mauvais usages: • Couverture de code minimale pour permette un Pull Request • Nombre de défauts avec une limite de contrôle • Ratio de tâches planifiées vs. défaut/bogues

Slide 38

Slide 38 text

L’équipe « game » les indicateurs • Oui, l’humain est astucieux par moment pour « gamer » d’une mauvaise manière les mesures. • Assurez pour chaque indicateur d’expliquer: • C’est quoi ce graphique (“chart”) ? • Quel est le comportement attendu ? • Comment on la “game” ? (positivement) • Le but est de mesurer pour s’améliorer et non pas changer la façon dont nous mesurons pour atteindre les objectifs…

Slide 39

Slide 39 text

Accompagner l’équipe dans la sélection des indicateurs • Ex. : on regarde à diminuer la taille des lots. • Good. On va donc suivre les indicateurs suivants: • Débit / vélocité • Temps de cycle des items • Temps de QA ? Ou dans une étape de validation • Délai de Déploiement • Temps de planification des items • On essaie des choses, on se mesure et on analyse le tout par la suite. • On évolue, un pas à la fois.

Slide 40

Slide 40 text

Les indicateurs sont un guide avant tout • Pour nous aider dans certains objectifs comme l’amélioration continue • Permet une introspection profonde du processus, permettant de se pencher sur leur réalité et de la saisir plus clairement • L’équipe voit ce qui se passe, l’impact de ce qu’ils font et quel endroit améliorer. • Créer un lien entre la théorie et le contexte de l’équipe en utilisant des indicateurs • Utiliser les indicateurs à bon escient. Nous ne voulons pas détruire la culture et démoraliser les gens

Slide 41

Slide 41 text

CONCLUSION

Slide 42

Slide 42 text

Comment inspecter son Value Stream ? • Regarder les indicateurs et de comprendre (et analyser) son flux de travail. • Les indicateurs ont divers angles morts et une raison d’être. • Voir les données et les indicateurs comme un outil d’aide à la décision qui génère des options • Ne négligez pas le facteur humain et la gestion du changement !

Slide 43

Slide 43 text

La voie de la maturité par un modèle simple 1. Cartographie de chaîne de valeur (VSM) pour rendre visible à l’équipe leur processus de travail. Ou un STATIK. 2. Identifier les goulots d’étranglement et les inefficiences 3. Standardisation des données source (Azure DevOps, Jira, GitLab) 4. Évolution des comportements (Ways of Working) et les pratiques dans l’équipe en suivant un ensemble d’indicateurs 5. Inspection en continu grâce aux données. On revoit notre sélection d’indicateurs au besoin

Slide 44

Slide 44 text

Réflexions • L’efficience est recherchée par les entreprises • Le coaching a encore sa place selon moi. Et le « data-driven coaching » est une posture à avoir dans son coffre à outil pour tous. • Davantage viser à évoluer par petits pas que se transformer à grande enjambée

Slide 45

Slide 45 text

RÉFÉRENCES

Slide 46

Slide 46 text

Troy Magennis Expert on Agile predictability, metrics, and probabilistic forecasting. • Vidéos • Metrics-driven Coaching with Troy Magennis (30 min) • Cycle Time Analytics - Fast #NoEstimate Forecasting & Decision Making ( 58min) • Agile Physics - The Math of Flow (formation en ligne gratuite environ 2h) • Notebooks • Github On a juste besoin de cela au minimum

Slide 47

Slide 47 text

Data-Driven

Slide 48

Slide 48 text

Value Stream

Slide 49

Slide 49 text

Vidéos pertinents • When Not To Use DORA Metrics (44 min) • How We Use Data To Ignite Action (28 min) • How to Misuse DORA DevOps Metrics (38 min)

Slide 50

Slide 50 text

Questions ? Commentaires ?