En bref : L’aviation analyse chaque crash grâce aux boîtes noires et a divisé par dix son taux d’accidents en quelques décennies. La médecine, elle, répète les mêmes erreurs faute de culture du retour d’expérience. Matthew Syed démontre que la différence entre les organisations qui progressent et celles qui stagnent tient à une seule chose : leur rapport à l’échec.
Matthew Syed, champion de tennis de table devenu expert de la performance
Matthew Syed a un parcours atypique. Double olympien en tennis de table, quadruple champion d’Angleterre entre 1997 et 2001, il a représenté la Grande-Bretagne aux Jeux de Barcelone puis de Sydney. Mais ce n’est pas le sport qui l’a rendu célèbre.
Diplômé d’Oxford en philosophie, politique et économie avec mention très bien, il est devenu journaliste au Times en 1999. Ses chroniques sur le sport et la performance lui ont valu plusieurs prix, dont celui de journaliste sportif de l’année aux British Press Awards. Il présente aussi Sideways sur BBC Radio 4, une émission qui explore les idées contre-intuitives.
Avec sept livres vendus à plus de deux millions d’exemplaires, traduits dans plus de 30 langues, Syed est devenu une référence sur les questions de mindset et de haute performance. Black Box Thinking, publié en 2015, est considéré comme son ouvrage le plus abouti.
Systèmes ouverts vs systèmes fermés : pourquoi certains secteurs progressent et d’autres stagnent
La thèse centrale du livre tient en une comparaison. D’un côté, l’aviation. De l’autre, la médecine. Deux secteurs où les erreurs peuvent tuer. Pourtant, leurs trajectoires sont radicalement différentes.
L’aviation a mis en place un système implacable d’apprentissage par l’échec. Chaque avion embarque une boîte noire qui enregistre tout : conversations du cockpit, paramètres de vol, alertes. Quand un accident survient, l’analyse est systématique, publique, sans complaisance. Les conclusions sont partagées à l’échelle mondiale. Le résultat : le taux d’accidents mortels a chuté de façon spectaculaire depuis les années 1950.
La médecine, elle, fonctionne différemment. Un rapport du National Audit Office britannique de 2005 estimait à 34 000 le nombre de décès annuels dus à des erreurs humaines dans le système de santé du Royaume-Uni. Près d’un million d’incidents par an, fatals ou non. Pourquoi ? Parce que les erreurs sont cachées, minimisées, attribuées à la fatalité. Le médecin qui se trompe risque sa réputation, voire des poursuites. Alors il se protège. Et les mêmes erreurs se répètent.
Syed appelle ça la différence entre systèmes ouverts et systèmes fermés. Dans un système ouvert, les données sur les échecs sont collectées, analysées, transformées en apprentissages. Dans un système fermé, les erreurs sont ignorées ou dissimulées, et rien ne change.
La dissonance cognitive, ennemie de l’apprentissage
Pourquoi est-il si difficile d’admettre ses erreurs ? Syed consacre une partie importante du livre à la psychologie de l’échec. Le coupable principal : la dissonance cognitive.
Quand nous sommes confrontés à une information qui contredit notre image de nous-mêmes, notre cerveau se rebelle. Plutôt que d’admettre l’erreur, il la réinterprète, la minimise ou l’oublie. Un chirurgien qui a commis une faute ne va pas se dire « j’ai mal opéré ». Il va penser « c’était un cas difficile », « le patient était fragile », « j’ai fait ce que n’importe qui aurait fait ».
Le livre explore le cas du système judiciaire américain et les condamnations à tort. Des procureurs ont maintenu leur conviction de culpabilité même face à des preuves ADN disculpant le condamné. Ce n’est pas de la mauvaise foi. C’est de la dissonance cognitive à l’œuvre.
Pour créer une culture de l’apprentissage, il faut donc d’abord comprendre ces mécanismes psychologiques. Et construire des environnements où l’échec n’est pas vécu comme une menace identitaire. C’est exactement ce que décrit le growth mindset décrit par Carol Dweck : voir les erreurs comme des occasions d’apprendre plutôt que comme des preuves d’incompétence.
Les gains marginaux : progresser de 1% à la fois
Syed ne se contente pas de diagnostiquer le problème. Il propose une méthode : les gains marginaux. L’idée vient du cyclisme britannique et de l’équipe Sky, devenue dominante sur le Tour de France.
Le principe est simple. Plutôt que de chercher une révolution, on cherche des améliorations de 1% dans tous les domaines. L’aérodynamisme du casque. La qualité du sommeil des coureurs. L’hygiène des mains pour éviter les infections. Le confort des oreillers. Pris isolément, chaque gain est négligeable. Accumulés, ils créent un avantage compétitif considérable.
Cette approche est directement liée au Black Box Thinking. Pour identifier ces micro-améliorations, il faut collecter des données. Analyser ce qui fonctionne et ce qui ne fonctionne pas. Tester, mesurer, ajuster. Sans cesse. C’est l’opposé de l’intuition géniale du leader visionnaire. C’est un processus systématique, humble, itératif.
Syed montre comment cette philosophie s’applique au-delà du sport. Dans l’industrie automobile avec Toyota et son système de production. Dans les startups de la Silicon Valley avec leur culture du « fail fast ». Dans toute organisation qui accepte de traiter ses échecs comme des sources d’information plutôt que comme des hontes à enterrer.
Ce que ce livre change pour un entrepreneur
Pour un dirigeant ou un entrepreneur, les applications sont nombreuses. La première : mettre en place des systèmes de feedback qui capturent les erreurs. Pas pour punir, mais pour apprendre.
Concrètement, cela peut prendre plusieurs formes. Un post-mortem systématique après chaque projet, réussi ou non. Un canal où les employés peuvent signaler des problèmes sans crainte de représailles. Des indicateurs qui mesurent non seulement les succès mais aussi les échecs évités.
Syed insiste sur la distinction entre blâme et analyse. Chercher un coupable et comprendre ce qui s’est passé sont deux démarches différentes. La première décourage le signalement des erreurs. La seconde l’encourage. Dans l’aviation, les pilotes peuvent signaler leurs erreurs sans sanction, sauf en cas de négligence grave. Cette immunité partielle a multiplié les rapports d’incidents et considérablement amélioré la sécurité.
L’autre leçon concerne la posture du leader. Si le patron réagit mal aux mauvaises nouvelles, personne ne lui en apportera. Les problèmes seront dissimulés jusqu’à ce qu’ils deviennent des catastrophes. Créer un environnement psychologiquement sûr, où l’on peut admettre ses erreurs sans risquer sa carrière, est une responsabilité managériale de premier ordre.
Les limites de ce livre
Black Box Thinking n’est pas exempt de défauts. Le livre est riche en exemples, peut-être trop. Syed accumule les cas, de l’aviation à la médecine, du sport à la justice, de la créativité à l’entrepreneuriat. Cette diversité illustre la généralité de sa thèse, mais peut aussi diluer le propos. Certains lecteurs trouveront le livre trop long, avec des redites.
Certaines analogies entre secteurs sont aussi discutables. Comparer l’aviation et la médecine a ses limites. Un avion est une machine reproductible, un patient est un système biologique unique. Les marges d’erreur, les contraintes réglementaires, les cultures professionnelles diffèrent profondément. L’analyse de Syed est stimulante, mais elle simplifie parfois des réalités complexes.
Pour qui ce livre est-il fait ? Pour les managers qui veulent créer une culture de l’apprentissage dans leur équipe. Pour les entrepreneurs qui cherchent à systématiser l’amélioration continue. Pour quiconque s’intéresse à la psychologie de l’erreur et à la façon dont les organisations apprennent ou n’apprennent pas.
Pour qui ne l’est-il pas ? Pour ceux qui cherchent un manuel pratique avec des checklists et des exercices. Le livre est plus analytique qu’opérationnel. Pour ceux qui préfèrent les arguments courts et percutants, la longueur pourra lasser.
FAQ
QU’EST-CE QUE LE « BLACK BOX THINKING » ?
C’est une philosophie qui consiste à ne jamais passer à côté d’une leçon tirée d’un échec. Le terme fait référence aux boîtes noires des avions, qui enregistrent tout pour permettre l’analyse des accidents. Appliqué aux organisations, cela signifie créer des systèmes qui capturent les erreurs et les transforment en apprentissages.
POURQUOI L’AVIATION EST-ELLE PRISE EN EXEMPLE ?
Parce que l’aviation a réussi à réduire drastiquement son taux d’accidents grâce à une culture systématique du retour d’expérience. Chaque incident est analysé, documenté, partagé. Les conclusions sont intégrées dans les procédures et la formation. Ce modèle contraste avec d’autres secteurs où les erreurs sont cachées ou ignorées.
QUE SONT LES « GAINS MARGINAUX » ?
C’est une approche qui consiste à chercher des améliorations de 1% dans de nombreux domaines plutôt qu’une amélioration massive dans un seul. Popularisée par l’équipe cycliste britannique Sky, cette méthode repose sur l’accumulation de petits progrès qui, ensemble, créent un avantage significatif.
BLACK BOX THINKING EST-IL DISPONIBLE EN FRANÇAIS ?
Non, le livre n’a pas été traduit officiellement en français à ce jour. Il est disponible uniquement en anglais sous le titre original Black Box Thinking: The Surprising Truth About Success, publié par John Murray en 2015. Des résumés en français existent en ligne.
QUEL LIEN AVEC LE GROWTH MINDSET ?
Syed fait explicitement le lien entre sa thèse et les travaux de Carol Dweck sur le growth mindset. Les deux approches partagent une idée centrale : voir les erreurs comme des opportunités d’apprentissage plutôt que comme des preuves d’échec personnel. Cette mentalité est le prérequis pour qu’une culture du Black Box Thinking puisse émerger.
CE LIVRE EST-IL ADAPTÉ AUX MANAGERS ?
Oui, particulièrement pour ceux qui souhaitent créer une culture où les erreurs sont signalées et analysées plutôt que cachées. Le livre offre un cadre conceptuel pour repenser la relation à l’échec dans une équipe ou une organisation, même s’il manque parfois d’outils pratiques directement applicables.

