WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Do not disturb: étude observationnelle des interruptions de tàches dans la pratique des infirmiers anesthésistes au bloc opératoire.


par Christopher Jean-Baptiste
Institut Régional de formation des infirmiers anesthésistes diplômé d'Etat (IRIADE, La Réunion 974)) - Infirmier Anesthésiste 2019
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

21

3.2.3 Erreur humaine : une faille à s'approprier et à analyser

Des auteurs et des travaux comme ceux de James T. REASON37 sont utilisés depuis quelques années pour comprendre le mécanisme des erreurs humaines qui contribuent à la survenue redoutée et évitable des évènements indésirables en établissement de santé. Docteur en médecine, il publia de nombreuses publications couvrant un large éventail de sujets qui sont largement répertoriés aujourd'hui dans les domaines de l'aéronautique, du nucléaire et de la santé. Les plus connues, parlent du mal des transports, de l'inattention, de l'erreur humaine, de la culture de sécurité ou encore de la gestion des risques d'accidents organisationnels. Avec « Human error » (parution 1990), REASON pose les fondements d'une typologie des erreurs du quotidien. Il distingue les erreurs fondées sur la défaillance dans la planification des tâches à accomplir de celles liées à la non-exécution d'une ou plusieurs tâches.

« Dans le premier cas, les erreurs surviennent par manque de connaissances ou d'informations (souvent insuffisantes ou erronées), par la mauvaise application des règles, ou par l'échec de leur mis en oeuvre.

Dans le second cas, les erreurs se produisent lors d'activités routinières et donc largement répétitives, paradoxalement connues et maîtrisées38 ».

L'HAS va plus loin lorsqu'elle reprend ces travaux pour faire évoluer la gestion des risques en milieu hospitalier vers une analyse approfondie des évènements indésirables associés aux soins (EIAS) et la prise en compte du contexte organisationnel et technique dans lequel les soins ont été délivrés39.

« Cette approche internationale, moins culpabilisante, ouvre ainsi la perspective de pouvoir apprendre et agir sur les erreurs qui surviennent ». Avoir une approche systémique, c'est avoir une vision plus large qui est axée sur des problématiques multiples. La seule cause, d'origine professionnelle ne suffit plus et les compétences techniques ne justifient pas uniquement cela. On cherche davantage à investiguer les causes profondes, moins identifiables que l'erreur humaine. Elles sont le plus souvent liées à une mauvaise organisation et coordination.

L'HAS conclue ainsi : « Que la mauvaise organisation du travail, l'ambition excessive du rendement, un personnel mal formé ou en nombre insuffisant, des coordinations mal pensées, une gouvernance locale instable et peu présente, sont la source principale des catastrophes observées, bien avant les questions de manque de

37 REASON J. Human error: models and management BMJ 2000; 320: 768-70

38 Franck GUARNIERI, Denis BESNARD - Redécouvrir « l'Erreur humaine » de James T. REASON, traduit de l'anglais par Jean-Michel Hoc, Presses des Mines, 2012.

39 Haute Autorité de Santé - Causes systémiques ou latentes des évènements indésirables associés aux soins - has-sante.fr, novembre 2013.

22

compétences techniques de chaque acteur impliqué40 ». L'aspect multifactoriel (comportemental, contextuel et conceptuel) des EI associés aux soins est alors pris en compte pour améliorer la sécurité des patients.

L'aviation est un bon exemple d'activité industrielle qui s'est saisi de l'étude des facteurs humains pour améliorer la sécurité. L'Organisation Mondiale de la Santé, dans son rapport l'explique : « Depuis les années 1980 (l'aviation) (...) reconnaît le caractère inévitable de la faillibilité humaine. Ainsi, au lieu d'exiger la perfection constante, qui n'est pas atteignable, et de sanctionner publiquement les erreurs, elle a mis au point des systèmes dont l'objectif est de réduire l'impact de l'erreur humaine. Le bilan de l'aviation en matière de sécurité témoigne de l'efficacité de cette approche (...)41 ».

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Qui vit sans folie n'est pas si sage qu'il croit."   La Rochefoucault