Modèle du fromage suisse

Le modèle du fromage suisse illustre que même s'il existe plusieurs mécanismes pour éviter les imprévus ou accidents, chacun d'eux possède des failles et si ces dernières sont « alignées », alors un accident peut se produire.

En gestion des risques, le modèle du fromage suisse[1],[2] (swiss cheese model en anglais) est un modèle de causalité d'accident permettant d'analyser les mécanismes de sécurité mis en place pour éviter des imprévus ou accidents, notamment les risques majeurs. Le modèle compare les systèmes de sécurité à de multiples tranches de fromage suisse alignées les unes derrière les autres. La menace d'un danger est ainsi limitée par ces couches de défense qui se superposent les unes aux autres sans que leur failles individuelles ne soient alignées. Cela prévient, notamment, l'apparition d'un point de défaillance unique.

Le modèle a d'abord été développé par Dante Orlandella et James T. Reason à l'université de Manchester[3] à partir de la fin des années 1980 et a été largement adopté depuis dans plusieurs domaines tels la sécurité aérienne, l'ingénierie, les soins de santé, la sécurité des systèmes d'information et la défense en profondeur.

Facteurs de risque[modifier | modifier le code]

Reason a émis l'hypothèse que la plupart des accidents ont pour origine un ou plusieurs des quatre facteurs suivants : les influences organisationnelles, la supervision, les conditions préalables et les actes spécifiques[4],[5]. Ainsi, par exemple, en aviation, les conditions préalables incluent la fatigue de l'équipage ou de mauvaises pratiques communicationnelles. La supervision non-sécuritaire comprend, par exemple, l'assignation de pilotes inexpérimentés aux vols de nuit dans des conditions météorologiques difficiles. Quant à elles, les influences organisationnelles peuvent mener à une réduction des coûts d'entraînement des pilotes en période d'austérité[6],[7].

Tranches et trous[modifier | modifier le code]

Dans le modèle du fromage suisse, les sécurités d'une organisation sont illustrées par une série de barrières, assimilées à des tranches de fromage. Quant à eux, les trous illustrent les défaillances dans chacune des barrières, défaillances qui varient en taille et en position dans chacune des tranches. Le système échoue lorsqu'un trou de chacune des tranches se retrouve momentanément aligné avec les autres, ce qui mène à un incident[8],[9],[10],[7].

Robert A. Frosch[11] décrit le modèle de Reason en termes mathématiques et rattache celui-ci à la théorie de la percolation, plus précisément à une forme de treillis de Bethe (en).

Failles actives et latentes[modifier | modifier le code]

Le modèle comprend à la fois les failles actives et latentes. Les failles actives sont liées aux actions non-sécuritaires qui peuvent mener directement à un accident, telles, par exemple, des erreurs de navigation, alors que les failles latentes sont des facteurs contributifs présents depuis un certain temps et contribuant, lorsque les conditions sont réunies, à l'accident[6].

Notes et références[modifier | modifier le code]

  1. « ACPM Guide des bonnes pratiques - Pensée systémique », sur www.cmpa-acpm.ca
  2. https://www.researchgate.net/figure/Modele-du-fromage-suisse-pour-expliquer-le-deroulement-dun-accident-en-fonction_fig2_221713414
  3. Reason 1990.
  4. (en)J. A. Doran (Shell International Exploration and Production B.V.) |G.C. van der Graaf (Shell International Exploration and Production B.V.) Tripod-BETA: Incident investigation and analysis, Proceedings of the SPEE Health, Safety and Environment in Oil and Gas Exploration and Production Conference, 9–12 June, New Orleans, Louisiana Publication Date1996
  5. (en)A. D. Gower-Jones (Shell International Exploration and Production) | G. C. van der Graf (Shell International Exploration and Production) Experience with Tripod BETA Incident Analysis Proceedings of the SPE International Conference on Health, Safety, and Environment in Oil and Gas Exploration and Production, 7–10 June, Caracas, Venezuela Publication Date1998
  6. a et b (en) Douglas A. Wiegmann et Scott A. Shappell, A human error approach to aviation accident analysis : the human factors analysis and classification system, Ashgate Publishing, , 48–49 p. (ISBN 0-7546-1873-0)
  7. a et b (en) Stranks, J., Human Factors and Behavioural Safety, Butterworth-Heinemann, , 130–131 p. (ISBN 978-0-7506-8155-1, lire en ligne)
  8. (en) Daryl Raymond Smith, David Frazier, L W Reithmaier et James C Miller, Controlling Pilot Error, McGraw-Hill Professional, , 10 p. (ISBN 0-07-137318-7)
  9. (en) Jo. H. Wilson, Andrew Symon, Josephine Williams et John Tingle, Clinical Risk Management in Midwifery : the right to a perfect baby?, Elsevier Health Sciences, , 4–6 p. (ISBN 0-7506-2851-0)
  10. (en) Tim Amos et Peter Snowden, Clinical Governance in Mental Health and Learning Disability Services : A Practical Guide, Gaskell, , 176 p. (ISBN 1-904671-12-8), « Risk management »
  11. (en) Robert A. Frosch, Seeds of Disaster, Roots of Response : How Private Action Can Reduce Public Vulnerability, Cambridge University Press, , 88 p. (ISBN 0-521-85796-1), « Notes toward a theory of the management of vulnerability »

Bibliographie[modifier | modifier le code]