Quand on fait pire


Ce qui rend la catastrophe de Boeing si frustrante, c’est l’évidence relative du problème rétrospectivement. Les psychologues et les économistes ont un terme pour cela; on appelle cela le «biais postérieur», la tendance à voir les causes des événements précédents comme évidentes et prévisibles, même lorsque le monde n’a aucune idée de ce qui les a conduites. Sans le recul, les séquences causales complexes menant à la catastrophe sont parfois impossibles à prévoir. Mais à la lumière de la tragédie récente, des théoriciens tels que Perrow nous inciteraient de toute façon à faire plus d’efforts. Les compromis dans les décisions d’ingénierie nécessitent une vigilance éternelle contre les imprévus. Si certains accidents sont un enchevêtrement d’imprévisibilité, nous ferions mieux de passer plus de temps à réfléchir à nos conceptions et décisions – et à prendre en compte les risques liés à la complexité même. Notre-Dame, vieille de plusieurs siècles, est peut-être un candidat improbable à la technologie compliquée homme-machine, mais elle pourrait également être admissible. Le bâtiment était équipé d’alarmes incendie, mais selon un compte dans un journal français repris par des points de vente de langue anglaise, un virus informatique a localisé le feu au mauvais endroit. En décidant des précautions à intégrer dans un système de sécurité incendie, les gardiens du bâtiment prennent des risques calculés: Des sprinkleurs automatiques, déclenchés accidentellement ou inutilement, pourraient ruiner peintures et autres objets d’art précieux. Perrow a expliqué dans Normal Accidents que deux conditions doivent être réunies pour que les conceptions technologiques qui opposent des systèmes de sécurité à des menaces significatives constituent une menace importante: Premièrement, les systèmes doivent être complexes. Deuxièmement, les composants ou sous-systèmes de la conception doivent être «étroitement couplés», c’est-à-dire interdépendants de manière à ce qu’une défaillance d’une unité puisse se répercuter sur les autres jusqu’à une défaillance globale. Aujourd’hui, nous passons la plupart de notre temps au quotidien à interagir avec de tels systèmes. Ils sont partout. Lorsque le vol 9525 de Germanwings a volé directement à flanc de montagne dans les Alpes françaises, tuant tous les passagers, les enquêteurs ont découvert que le système de sécurité était l’une des causes elle-même, mise en place dans un avion après les attentats du 11 septembre. Le commandant de Germanwings, quittant le cockpit pour se rendre à la salle de bain, a été verrouillé par le copilote, Andreas Lubitz, qui a ensuite demandé au pilote automatique de descendre dans une montagne, tuant les 144 passagers et six membres d’équipage à bord. Comme peut-être la tragédie du Boeing 737 Max et même de Notre-Dame, l’accident semble prévisible après coup. Cela montre également la triste sagesse de l’avertissement vieux de plusieurs décennies de Perrow. Sur le vol 9525, la porte du poste de pilotage a été renforcée avec des tiges en acier, ce qui a permis d’éviter un effraction terroriste, mais empêchait également le commandant de bord de s’introduire. Lorsque Lubitz n’a pas répondu aux demandes du capitaine désemparé d’ouvrir la porte, celui-ci a tenté d’utiliser son code de porte pour rentrer à nouveau. Malheureusement, le code pourrait être annulé depuis le cockpit (vraisemblablement comme défense supplémentaire contre l’entrée), ce qui est précisément ce qui s’est passé. C’était Lubitz seulement dans le cockpit – suicidaire, comme nous le savons maintenant – pour le reste du vol tragique. C’est tentant de appelez cela un cas de volonté humaine (et c’était le cas), mais le système mis en place pour empêcher une volonté humaine pernicieuse le permettait. La complexité croissante des systèmes homme-machine modernes signifie que les pannes imprévues sont généralement catastrophiques et de grande ampleur. L’effondrement du marché immobilier en 2008 n’aurait pas eu lieu sans des dérivés conçus pour amplifier le risque financier, mais pour aider les traders à le contrôler. Boeing n’aurait jamais mis les moteurs du 737 Max à la place, sauf dans le cas où un logiciel anti-décrochage rendrait la conception «sûre». En réponse à ces risques, nous jouons les moyennes. Dans l’ensemble, le transport aérien est plus sûr aujourd’hui que dans les années 80, par exemple. Des cathédrales centenaires ne brûlent pas, en moyenne, et les avions ne s’écrasent pas. Les marchés boursiers non plus. En moyenne, les choses fonctionnent habituellement. Mais notre récente tristesse nous fait rappeler que les catastrophes futures nécessitent davantage d’attention pour les phénomènes étranges et (paradoxalement) pour les imprévus. Notre réflexion sur les accidents et les tragédies doit évoluer, comme les systèmes que nous concevons. Peut-être sommes-nous capables de déjouer la complexité plus souvent. Parfois, cependant, notre reconnaissance de ce que nous avons fait arrivera encore trop tard.


No Comments, Comment or Ping