martes, 3 de abril de 2018

El falso debate sobre el error humano

Alcanza con sentarse al lado de un operador de sistemas de riesgo (piloto, controlador, etc) para convencerse de que comete numerosos errores. Al mismo tiempo, ese operador que estamos observando, con la ayuda de los sistemas y de otros miembros del equipo, recupera la mayoría de sus errores.


Vamos a un ejemplo concreto. En 1992 durante un vuelo de certificación del Airbus A340, un vuelo que tenía una duración de diez horas aproximadamente, la observación detallada de la tripulación permitió detectar 162 errores y, sin duda, esta cifra fue inferior a la cantidad de errores cometidos realmente, teniendo en cuenta las dificultades para codificar errores inmediatamente corregidos.

Esos 162 errores correspondían a manipulación errónea de sistemas, procedimientos inadecuados, fallas de comunicación entre miembros de la tripulación o con el control de tránsito aéreo.

De los 162 errores, la tripulación detectó y recuperó a los pocos segundos (en la mayoría de los casos en menos de cinco segundos). Tan solo hubo cuatro errores no recuperados inmediatamente, si bien fueron detectados a partir de sus consecuencias.

Sólo se recogió un error en el informe oficial del vuelo porque se consideró potencialmente crítico para la seguridad operacional, aunque en este caso no tuvo ninguna consecuencia seria respecto al riesgo de sufrir un accidente.

Esta magnitud de errores se confirmó en todos los vuelos de la misma campaña de certificación, también se corroboró en los resultados obtenidos en las observaciones realizadas a pilotos militares de aviones de combate. Incluso con un piloto bien entrenado y con un sistema tratado ergonómicamente para que se bloqueen las fuentes de error más frecuentes, el porcentaje de error humano residual sigue estando entre tres y cinco errores por hora en las situaciones en las que el operador interactúa con un sistema.
Este porcentaje aumenta considerablemente con un sistema ergonomicamente mal tratado o con un operador con poca experiencia, que era lo que ocurría en la campaña de certificación del A340, porque se trataba de un avión nuevo con pilotos poco experimentados.

¿Que significa tiene esta cifra para la seguridad y de que seguridad estamos hablando?

Los análisis de seguridad combinan, en general, dos niveles. Por un lado, una especie de garantía de calidad representada por errores humanos o fallos de sistemas no catastróficos, que podrían alterar el desempeño y, por otro lado, errores o fallos verdaderamente catastróficos por el riesgo que implican en la psoibilidad de pérdida de control de la situación. Estos análisis dan a entender en forma bastante explícita que la reducción de todos los errores, incluso aquellos que sólo facilitan el desempeño, es necesariamente beneficiosa para la seguridad global del sistema. ¿Es así?

No podemos más que apoyar la idea de que deben suprimirse por cualquier medio disponible los errores y los fallos que hacen perder inmediatamente el control de la situación. Pero esos errores son, al final de cuenta, bastante raros y están muy localizados.

Los demás errores, los menos graves y mucho más numerosos, plantean cuestiones diferentes.
Estos múltiples errores se consideran ruidos del desempeño. Se intenta reducirlos bastante mediante la aplicación de políticas de garantía de calidad que se basan en el tratamiento ergonómico de las interfaces, el aumento de la automatización (que no soluciona todo sino que genera otro tipo de errores) y obviamente la formación, instrucción y capacitación de los operadores.
Al hacerlo, el aumento de desempeño en la interfase hombre-máquina no implica un aumento de de la seguridad respecto a las grandes catástrofes y puede incluso llegar a tener una conclusión inversa. El balance de la supresión de los errores es paradójico: optimizamos el desempeño del la interrelación hombre-máquina desajustando el frágil equilibrio del compromiso cognitivo.

El sistema cognitivo humano comete errores, no adrede evidentemente, pero en cierto modo aceptando cometer estos errores para ahorrar recursos. Todos los resultados de las observaciones muestran que el operador prefiere (en los casos que sabe que no tiene potenciales consecuencia graves) cometer esos errores y detectarlos después para aprovechar un funcionamiento basado en habilidades, en vez de dejar de cometer errores (en teoría) y tener que utilizar un funcionamiento basado en normas, extremadamente controlado, lento, costoso en recursos (cognitivos) y agotador.

Los errores cometidos tienen, también, una utilidad evidente en los procesos de aprendizaje y adaptación. Recordemos que los mejores operadores no son aquellos que no cometen errores (si es que los hay) sino los que recuperan los errores cometidos. En el peor de los casos, el sistema cognitivo es un sistema en equilibrio, circular, autogestionado; la consideración de los errores ofrece al individuo una cierta imagen de su propio funcionamiento, que le permite a su vez ajustar el compromiso cognitivo en termino de riesgo-desempeño. Si el operador comete numerosos errores, reduce efectivamente sus aspiraciones en términos de desempeño para no poner en peligro sus capacidades de compromisos. Precisamente por eso ha dejado de existir un vínculo lineal entre garantía de calidad, aumento del desempeño por reducción de error y riesgo de accidente catastrófico.
Cada vez que reducimos artificialmente el número de errores que comete una persona, aumentamos mecánicamente su desempeño y al mismo tiempo debilitamos el reflejo que la persona desarrolla de sí mismo, de todo esto surge un nuevo compromiso cognitivo artificial, claramente más frágil y en cualquier caso con una autodefensa menor. El riesgo no radica tanto en provocar nuevos errores como en despojar al sistema cognitivo de sus propias estrategias de detección y recuperación de errores.

Es necesario que una persona cometa errores aislados, sin consecuencias catastróficas. Teniendo esta perspectiva, no son tanto los errores aislados los que deben ser considerados como fallos, ya que estos errores forman parte, finalmente, de compromiso cognitivo que se protege contra ellos, llega a aceptarlos e incluso a provocarlos en algunas exploraciones "para ver" y en cualquier caso, los utiliza como señales para su ajuste en línea. En cambio, la naturaleza del compromiso instalado, su configuración en términos de defensa y los fallos de este compromiso provocarán el fallo del sistema con errores cada vez más catastróficos porque no existe red de seguridad. Podemos compararlo con una vacuna, introducimos en nuestro cuerpo un virus en forma controlada para generar anticuerpos. 

Las causas de ruptura del compromiso

Las razones naturales del fallo del compromiso pueden resumirse en tres categorías: Ambición de desempeño excesivo, mala visibilidad de las capacidades personales y falta particular de recursos.
  • La ambición excesiva obliga al operador a debilitar su compromiso, reduciendo sus márgenes y aumentando los riesgos. Las razones de esta ambición excesiva pueden ser coyunturales: un problema particular de la situación, necesidad de mostrar un desempeño excepcional. También pueden venir impuestas de forma externa por un sistema sociotécnico que fuerza a alcanzar un desempeño más elevado.
  • La mala visibilidad de las capacidades propias es un rasgo habitual de novato o inexperto que no valora adecuada y realmente lo que sabe hacer bien y lo que no. También la sobrevaloración del experto en lo que sabe hacer bien y lo que no. La persona cree dominar el nivel de riesgo que acepta, pero el fallo se produce porque el nivel de riesgo real es infinitamente superior al previsto (Pueden ampliar en La percepción del riesgo)
  • Finalmente, la última fuente de fallo radica normalmente en la imposibilidad del sistema cognitivo para alcanzar este día, en este caso, los objetivos que se ha fijado y que normalmente es capaz de alcanzar, porque carece de recursos disponibles a causa de la fatiga acumulada, estrés acumulado, enfermedad, etc.


Paz y bien
Roberto Gómez




Bibliografía
  • La acción humana en los sistemas de alto riesgo. René Amalberti, Modus Laborandi, 1ra edición, 2009
  • El error humano, James Reason, Modus Laborandi, 1ra edición, 2009





No hay comentarios.:

Publicar un comentario