miércoles, 11 de julio de 2018

Los mitos



Ícaro estaba retenido junto a su padre, Dédalo, en la isla de Creta por el rey de la isla, llamado Minos.

Dédalo decidió escapar de la isla, pero dado que Minos controlaba la tierra y el mar, Dédalo se puso a trabajar para fabricar alas para él y su joven hijo, Ícaro. Enlazó plumas entre sí uniendo con hilo las plumas centrales y con cera las laterales, y le dio al conjunto la suave curvatura de las alas de un pájaro. Ícaro a veces corría a recoger del suelo las plumas que el viento se había llevado o ablandaba la cera.

Cuando al fin terminó el trabajo, Dédalo batió sus alas y se halló subiendo y suspendido en el aire. Equipó entonces a su hijo de la misma manera, y le enseñó cómo volar. Cuando ambos estuvieron preparados para volar, Dédalo advirtió a Ícaro que no volase demasiado alto porque sol (Sol, peligro genérico) genera calor (Peligro específico) y derretiría la cera (consecuencia del peligro), ni demasiado bajo porque la espuma del mar (Mar, peligro genérico) mojaría las alas y no podría volar. 

Pasaron las islas de Samos, Delos, Paros, Lebintos y Calimna, y entonces el muchacho comenzó a ascender. No obstante las advertencias de su padre, Ícaro fascinado por lo maravilloso del vuelo se elevó por lo aires desobedeciendo (no siguiendo las instrucciones) a Dédalo quien no pudo impedirlo. Además, Ícaro se sintió dueño del mundo y quiso ir más alto todavía (ego). Se acercó demasiado al sol y el calor ablandó la cera que mantenía unidas las plumas y éstas se despegaron (Consecuencia del peligro genérico). Ícaro agitó sus brazos, pero no quedaban suficientes plumas para sostenerlo en el aire. El desdichado y temerario joven acabó precipitándose en el mar, donde murió. Por eso, desde entonces ese mar se conoció como El Mar de Icaria. 

Su padre lloró y lamentando amargamente sus artes, y, en su memoria, llamó Icaria a la tierra cercana al lugar del mar en el que Ícaro había caído.

Desde la leyenda de Ícaro, los pilotos han sido acusados de volar demasiado cerca del sol muchas veces, causando accidentes. Lectores de noticias en cualquier formato, han visto historias tituladas generalmente de esta manera "se trataría de un error del piloto" antes de pasar a la siguiente historia del día. 

Para cualquiera que esté dentro del mundo aeronáutico, los términos 'error del piloto' son, o debería ser, inmensamente agravante. Un error del piloto, o un error de un controlador o de error de un mecánico son hechos cotidianos en la vida en la aeronáutica, ¿porque? los seres humanos estamos involucrados en todos estos puestos de trabajo y el ser humano es falible. 
De hecho, decir "error del piloto" sin evidencia, también constituye un error humano porque no es una explicación útil de por qué se produjo el accidente.

Esto, de ninguna manera, quiere dejar la idea que la industria no debe esforzarse por reducir al mínimo los errores dentro de la actuación humana. La percepción del "laico" que la seguridad de la aviación puede ser concebida sólo en términos de blanco y negro y que se debe combatir el error con una sanción apropiada es la antítesis del pensamiento de la aviación moderna. 

La cultura de seguridad ha tomado como dogma que el error es un hecho de la existencia humana, que necesita ser entendido, incluso abrazado, en lugar de negarlo. Este concepto se ha extendido a otros ámbitos lentamente, cada vez más profesiones fuera de la aviación, como la medicina, el transporte terrestre y la minería toman este concepto. 

Sin embargo, incluso dentro de una industria con una visión y conocimiento como la nuestra, los procesos cognitivos que ayudan a nuestro pensamiento, a veces, puede conducir a conclusiones erróneas debido a la excesiva dependencia de la heurística y sesgos cognitivos (Tversky y Kahneman, 1974). 

Mito 1: Los buenos pilotos no cometen errores

Este mito debería haber desaparecido hace mucho. La investigación sobre las Auditorias de Seguridad de las Operaciones de Línea Aérea (Line Operations Safety Audit | LOSA) donde pilotos observan el cumplimiento de los procedimientos de sus compañeros durante vuelos de rutina y toman un registro de sus errores, ha demostrado que, en primer lugar, siempre hay errores.  La gran mayoría son sin importancia, tales como la introducción de información errónea, colacionando mal una instrucción del control, etc.

Mientras que algunos errores están relacionados a factores de rendimiento individual, otros pueden estar basadas en cuestiones sistémicas.
En segundo lugar, aunque el profesionalismo de los pilotos se basa en la auto-evaluación precisa, no pueden dar cuenta de todos los errores que cometen. Esto, como lo he repetido en muchas notas, es parte de nuestra naturaleza humana, no particularmente de los pilotos o controladores.

El investigador Matthew Thomas, especialista en FFHH dice: 'El error humano ahora se acepta como una parte natural del rendimiento diario, y puede producirse tanto de forma espontánea o puede ser precipitado por una variedad de factores ambientales y personales, tales como la competencia individual, la carga de trabajo, la fatiga y la dinámica de equipo"

Mito 2: El error es igual a incompetencia

Si desea jugar a ser psicólogo y preguntar acerca de si hay personas propensas a tener accidentes a causa de la torpeza inherente, asumir riesgos mayores o la estupidez, y tomar esto como concepto general, le puedo decir que es 'folclore'. "No es el concepto de propensión a los accidentes lo que está siendo cuestionado... sino más bien las afirmaciones sin fundamento, la identificación de rasgos de personalidad que pueden predecirse mediante pruebas psicológicas" Mark Rodgers y Robert Blanchard. 

Los estudios de propensión a los accidentes tienen que demostrar mediante muestras de gran tamaño, la estabilidad de la propensión a los accidentes en el tiempo y para tener en cuenta el impacto de las variables de la situación 'y circunstanciales,' las circunstancias particulares de cada accidente.

En el libro In The Limits of Expertise, NASA Ames Research Centre psychologist R. Key Dismukes (with Ben Berman and Loukia Loukopoulos) se echa por tierra el mito de que el error es señal de incompetencia. 'Mucha gente asume que si un experto (en la aviación, la medicina o cualquier otra) comete un error, esto es evidencia inequívoca de falta de habilidad, vigilancia o conciencia. Este supuesto es un tanto simplista y equivocado'

La habilidad, la vigilancia y la conciencia son, por supuesto, esenciales para el funcionamiento seguro y eficaz, pero no son suficientes. Un error de concepto, particularmente sobre la actuación humana, lleva al siguiente razonamiento: "Si un experto normalmente puede realizar una tarea sin dificultad, siempre debe ser capaz de realizar esa tarea correctamente". No es así, los expertos en todos los campos, de vez en cuando, cometen errores involuntarios en las tareas que normalmente llevan a cabo sin dificultad.

Dismukes expresa que el error humano es la consecuencia de la interacción de las variaciones sutiles en la demanda de la tarea, información incompleta disponible para el experto en la realización de la tarea que desarrolla y 'la naturaleza inherente de los procesos cognitivos que permiten el desempeño cualificado'.

Errar, en otras palabras, es humano (Errare humanum est, perseverare diavolicum, pero eso es material para otra nota). En consecuencia, no es difícil asumir que los expertos en cualquier rama son humanos también y que, por lo tanto, como las leyes de la física aplican a todos, la del error no podía ser menos: los expertos se equivocan. 

Pero hay un tema que lo hace peligroso cuando un error lo comete un experto, dice Forsterlee. 'Es cuando un "gurú" comete un error puede ser que sea más dañino." y 'Cuando un "gurú" comete un error, incluso en momentos en que es observado por sus compañeros de trabajo, sucede que no creen que sea un error o piensan que en este caso no se trata de un error.' Eso es lo que lo hace más peligroso.

Mito 3: Los errores explican accidentes

'Pensar en términos de error y la culpa es en sí mismo un error,' dice Andrew Hopkins. 'El concepto de culpa es contraproducente desde el punto de vista explicativo. Tenemos dos paradigmas de pensamiento; el paradigma de la culpa y el paradigma explicativo y estas dos cosas son inconmensurables. No se encuentran en modo alguno '.

Dismukes y sus colegas dicen que la investigación de accidentes de aviación debe ir más allá de la conclusión segura del error de la tripulación y mirar hacia las circunstancias que se asociaron con el error. No es coherente con las realidades fundamentales de la actuación humana y contraproducente para la seguridad, para centrarse demasiado en los errores de la tripulación o para asignar las causas principales del accidente simplemente para esos errores. Por el contrario, casi todos los accidentes implican vulnerabilidades en un sistema operativo sociotécnico complejo y causalidades se encuentran en la influencia probabilística de muchos factores, de los cuales un error del piloto es único. El objeto es diseñar el sistema operativo para ser resistentes a los fallos de los equipos, eventos inesperados y errores humanos que se producen inevitablemente.

Hopkins dice que de una manera sencilla, pero útil: el método de 'cinco porqués'.
Se atribuye fundamentalmente a tres personas: el fundador de Toyota, Sakichi Toyoda, su hijo Kiichiro y el ingeniero Taiichi Ohno y fue usada en la corporación Toyota durante la evolución de su metodología de manufacturación, (más allá de un enfoque simplista de error), como parte de su sistema de producción. Taiichi Ohno, acuñó el dicho, 'preguntar ‘por qué’ cinco veces sobre cada asunto.'

Cuando nos enfrentamos a un derrame de aceite el método de cinco porqués pediría:
  1. ¿Por qué hay un charco de aceite? Debido a que el motor tiene una fuga de aceite.
  2. ¿Por qué se está escapando del motor? Debido a que la junta ha fallado.
  3. ¿Por qué hafallado la junta? Debido a que es un elemento de baja calidad.
  4. ¿Por qué utilizamos artículos de baja calidad? Debido a que el agente de compras está siendo remunerado por el ahorro de costos.
  5. ¿Por qué es el agente de compras de ser remunerado por el ahorro de costos? Dado que los valores de política de empresa apunta a ahorrar dinero y no a la calidad.

'El sistema de producción de Toyota dice: ‘La gente no falla, los procesos lo hacen’, y su uso casi siempre te lleva a un proceso que puede ser mejorado', dice Hopkins.

Mito 4: Nunca podría cometer ese error

Con el beneficio de la retrospectiva es fácil decir que no habría hecho tal cosa, dice Forsterlee. No estabas en esa situación, ese día, con esa información. 
Para opinar sin información esta la televisión, facebook y twitter. Abundan los pseudoespecialistas que hablan sobre accidentes sin ningún tipo de evidencia, especulando sobre la nada misma. 

Hay un número de abonados al siguiente modo de pensar: "nunca podría cometer ese error" personas tales como: las que poseen un sesgo de optimismo alto o la percepción errónea de que "uno" es menos propenso que "otros" a incurrir en un error con consecuencias negativas; sobre-estimación de las propias habilidades y subestimar el riesgo (ver la percepción del riesgo); y la ilusión del control de la situación. Esto ocurre cuando las personas que obtienen el resultado deseado que se produjo con independencia de su comportamiento y creen que es el resultado de que tenían todo bajo control.

La comprensión de que el error humano, incluyendo el propio error, es inevitable, es el principio de la mejora "Todos los campeones pierden partidos". Pero son campeones porque aprenden de sus errores, y sus pérdidas.

Todo el mundo debe ser consciente de la falibilidad de los seres humanos. Pero existen tipos de personalidad que, a pesar de toda la evidencia, piensan y expresan la frase matadora: “tengo una explicación alternativa que demuestra que no estoy equivocado.” Es por eso que destacar la susceptibilidad a la creencia de estos mitos es tan importante.

Conocimiento de sí mismo y nuestra capacidad para mejorar tiene poco que ver con la edad o la experiencia. El profesionalismo es el auto-escrutinio continuo para asegurar que nos seguimos desarrollando, aprendiendo, esto no es posible sin la capacidad de aceptar la retroalimentación. 

Desafortunadamente, hay personas que externalizan su falta de logros y crecimiento profesional culpando a las circunstancias o a otros, en lugar de realizar su propia evaluación y debriefing asumiendo y aprendiendo de los errores cometidos.

Interrupción y errores: recordar hacer lo que es correcto

El día 20 de agosto de 2008 a las 14.24 horas, la aeronave McDonnell Douglas DC-9-82 (MD-82), matrícula EC-HFP, operada por la compañía Spanair, sufrió un accidente inmediatamente después del despegue en el aeropuerto de Madrid-Barajas, Madrid (España). 
A causa de problemas técnicos y con el avión en pista listo para el despegue, el comandante volvió a contactar con la TWR para informar: MADRID SPANAIR 5022, MIRE, TENEMOS UN PEQUEÑO PROBLEMA, TENÍAMOS QUE ABANDONAR LA PISTA OTRA VEZ. Control (DEP) autorizó el abandono de pista preguntando si la intención de la aeronave era la de regresar a la plataforma. La tripulación comunicó que, una vez fuera de pista, en cuanto los servicios de asistencia de la compañía les informaran del problema, volverían a contactar. La tripulación había detectado una indicación anormalmente alta de la temperatura de la sonda RAT (Ram Air Temperature probe).

Una hora más tarde, despegó de nuevo e inmediatamente al dejar la pista se accidenta, matando a 154 de las 172 personas a bordo. La tripulación del vuelo 5022 de Spanair había omitido extender los flaps para el despegue, como la tripulación del vuelo 255 de Northwest Airlines lo había hecho casi exactamente 21 años antes, en otro MD-82, el 16 de agosto de 1987. Ambas tripulaciones habían sido interrumpidas en sus preparativos de despegue y ambos aviones tenían los TOWS, (take off warning system) inoperativos.

Cuando nos fijamos en accidentes aéreos en los que los pilotos se olvidan de realizar alguna tarea esencial, encontramos que la mayoría de las cosas que se olvidaron eran pasos de procedimientos operativos de rutina, en lugar de acciones únicas que estaban tratando de recordar hacer. Estas fueron tareas bastante simples que habían ejecutado miles de veces sin dificultad en vuelos anteriores, cosas tales como los flaps, extender el tren de aterrizaje, encender bombas hidráulicas, o la lectura de de una lista de control. Es un campo relativamente nuevo de la ciencia cognitiva que se llama memoria prospectiva: recordar hacer las cosas que nos proponemos, que se deben aplazar hasta un momento posterior.

Rápidamente se hizo evidente que todo el mundo se olvida de vez en cuando hacer algunas cosas, no importa cuán simple es la tarea, no importa la frecuencia con que han realizado esa tarea anteriormente, no importa qué tan hábil sos en tu trabajo. Entonces, ¿por qué olvidamos y que podemos hacer para evitar estos lapsos de memoria?

Los seres humanos tenemos un gran acervo de información, casi ilimitado, en la memoria a largo plazo (memoria que almacena recuerdos por un plazo de tiempo mayor a seis meses, sin que se le presuponga límite alguno de capacidad o duración) Ahí es donde reside todo lo que sabes. Pero en un momento dado solamente una pequeña parte de esa información se activa y está disponible de inmediato para la manipulación consciente en lo que se llama memoria de trabajo.

La investigación muestra que para recuperar la intención diferida de vuelta a la conciencia en el momento adecuado, debemos notar algo relevante; alguna señal debe recordarnos, una señal que está de alguna manera relacionado con la intención.

Preparación de la memoria: contramedidas

Para situaciones en las que hay que aplazar las cosas, Dismukes recomienda la creación de señales de aviso que se pueden notar en el momento adecuado. Las mejores señales de aviso son distintivos, inusuales, y / o bloquear algo como por ejemplo poner un vaso de plástico vacío sobre el acelerador para recordarte que hay algo que debe hacer antes de despegar.

Señales:

  • Escribir una nota a sí mismo y dejándolo donde se verá.
  • Explícitamente identificar dónde y cuándo se va a realizar la tarea diferida y lo que va a hacer cuando se tiene la intención de realizar esa tarea.
  • Imagínese a sí mismo la realización de la tarea.
  • Ejecutar su lista de control de una manera lenta y deliberada, y tildar cada ítem.
  • Asegúrese de que la lista de verificación es de fácil acceso.
  • Si se interrumpe su lista de comprobación, sostengala en la mano en lugar de dejarla a un lado.
  • Pedir ayuda a otras personas para ayudarle a recordar.

La multitarea, la realización de un acto de un procedimiento fuera de secuencia, o la sustitución de un ítem de un procedimiento atípico deben ser tratados como señales de alerta para un probable error.

Por encima de todo, evitar las prisas, independientemente de la presión del tiempo. 

Paz y bien
Roberto Gómez


Bibliografía

  • Tversky, A., y Kahneman, D. (1974). La incertidumbre sentencia. Ciencia, 185, 1124-1131.
  • Dekker, S. (2004). Diez preguntas sobre el error humano: una nueva visión de los factores humanos y la seguridad del sistema. CRC Press, EE.UU.
  • The myths of pilot error - By staff writers
  • Informe técnico A-032/2008 - COMISIÓN DE INVESTIGACIÓN DE ACCIDENTES E INCIDENTES DE AVIACIÓN CIVIL - España

Definiciones

Gurú: Persona a quien se considera maestro o guía espiritual, o a quien se le reconoce autoridad intelectual.

Mito: Del gr. μῦθος mŷthos.

1. m. Narración maravillosa situada fuera del tiempo histórico y protagonizada por personajes de carácter divino o heroico.

2. m. Historia ficticia o personaje literario o artístico que encarna algún aspecto universal de la condición humana

No hay comentarios.:

Publicar un comentario