Gestión de la Seguridad Revisado por pares Toma de Decisiones Cómo el Procesamiento del Sistema 1 y el Sistema 2 Influyen en la Seguridad Por Brooks Carder y Patrick Ragan ©ISTOCKPHOTO.COM/ALPHASPIRIT E l proceso de la toma de decisiones es fundamental para un rendimiento seguro, ya sean decisiones de trabajadores, administradores o directivos. En los últimos 10 años, los investigadores en el campo de la psicología han realizado varios avances en la comprensión de este proceso. Este artículo describe algunos de dichos avances y analiza su importancia en materia de seguridad. También sugiere algunas estrategias que los trabajadores pueden aplicar para evitar tomar malas decisiones, y proporciona información básica para que los profesionales de OSH puedan desarrollar sus propias estrategias. Cuando el transbordador espacial Challenger emprendió su último y fatídico vuelo, lo hizo a pesar de que el ingeniero jefe se había negado a aprobar el lanzamiento. Además, ese día hacía frío, y se disponía de varios datos que indicaban que los problemas con los sellos (que fallaron y provocaron la pérdida del transbordador) se producirían si el vehículo se ponía en marcha en bajas temperaturas (Feynman, 1999). Brooks Carder, Ph.D., es líder en la aplicación de disciplinas de calidad para la mejora del rendimiento de la seguridad. Su trabajo se centra en el uso de la evaluación científica para facilitar el diseño y aplicación de programas de mejora exitosos. Es coautor del capítulo “Benchmarking and Performance Appraisal” (Análisis Comparativo y Evaluación del Rendimiento) publicado en The Safety Professional’s Handbook (Manual para Profesionaless de la Seguridad) de la ASSE. Su formación incluye un A.B. de la Universidad de Yale y un doctorado en Psicología Experimental de la Universidad de Pensilvania. Carder es miembro profesional del Capítulo de San Diego de la ASSE y miembro de la especialidad práctica Consultoría de la Sociedad. ¿Por qué se permitió que el Challenger despegara si los indicadores señalaban que no era seguro hacerlo? Sería fácil sospechar motivos indebidos por parte de los ejecutivos de la NASA a cargo del lanzamiento. Después de todo, el vuelo prometía ser fuente de una muy necesaria publicidad positiva para la institución, ya que el Presidente Reagan estaba planificando hacer un llamado al transbordador y transmitirlo en la televisión nacional en algún momento del transcurso de la misión. EN RESUMEN •Recientes investigaciones del área de la psicología han revelado la existencia de un sistema inconsciente que es responsable de la mayoría de las decisiones de las personas. •Este sistema tiene varios vacíos que pueden conducir a decisiones que comprometen la seguridad. •Este artículo describe estos vacíos, analiza de qué manera conducen a la adopción de malas decisiones relacionadas con la seguridad y estudia cómo protegerse contra esto. Procesos del Sistema 1 y el Sistema 2 para la toma de decisiones El recientes ganador del Premio Nobel por su investigación sobre el proceso de toma de decisiones puede ofrecernos una mejor explicación. Kahneman (2008) describe dos sistemas para la toma de Patrick Ragan, M.B.A., CSP, recientemente se jubiló tras haber sido vicepresidente de QHSE, Bayer CropScience Americas. En sus 40 años de carrera, se desempeñó en la administración de varias unidades operativas y de importantes fábricas de productos químicos de alto riesgo, y también ocupó puestos de liderazgo en el Centro de Seguridad de Procesos Químicos. Ragan es colaborador de varios articulos de revistas y libros profesionales. Posee un B.S. en Seguridad de la Universidad Estatal de Oklahoma y un M.B.A. de la Universidad de Charleston. Es miembro profesional del Capítulo de Carolina del Norte de la ASSE y miembro de varias especialidades prácticas de la asociación. www.asse.org MARCH 2016 ProfessionalSafety 57 decisiones. El Sistema 2 es el proceso consciente con el que la mayoría está familiarizado. Es racional y responde a la información nueva, y debido a que es deliberativo, es un proceso relativamente lento. Las operaciones del Sistema 2 requieren atención. Kahneman (2008) enumera varias actividades que serían manejadas por el proceso del Sistema 2: •Centrar la atención en los payasos de un circo. •Buscar una mujer con el cabello blanco. •Mantener una velocidad de caminata más rápida a lo que se está acostumbrado. También se encarga de tareas complejas. Por ejemplo: •Comparar el valor total de dos lavadoras. •Comprobar la validez de un argumento lógico complejo. El Sistema 1 es un proceso inconsciente que los seres humanos utilizan para tomar la mayoría de las decisiones, aunque no estén conscientes de su procesamiento. Algunos ejemplos de actividades gestionadas por el Sistema 1 son: •Orientarse hacia la fuente de un ruido repentino. •Responder cuál es el resultado de 2 + 2. •Conducir un coche en una carretera vacía. •Comprender frases sencillas. •Reconocer que “un alma dócil y prolija, con pasión por los detalles” se asemeja a un estereotipo laboral. El Sistema 1 puede realizar algunos cálculos complejos. Por ejemplo en el béisbol, cuando un jardinero central experimentado se aproxima rápidamente al lugar en que aterrizará la bola de un batazo de aire, está haciendo un cálculo que tomaría un tiempo considerable si se realiza con el Sistema 2. La mayoría de las personas no son conscientes de la complejidad de esta decisión y probablemente no podrían realizar ese cálculo. En su lugar, una persona simplemente va a donde la bola va a caer. Además de sus amplias capacidades, el Sistema 1 contiene vacíos que suelen llevar a la adopción de malas decisiones. Según Kahneman (2008), estos vacíos incluyen: 1) El descuido de la ambigüedad y represión de la duda. 2) El sesgo de confirmación, que es la tendencia a ignorar la evidencia que entra en conflicto con la hipótesis que uno tenía inicialmente. 3) La coherencia emocional exagerada (efecto halo). Esta es la tendencia a no creer nada de lo que dice, por ejemplo, una figura de confianza (que es la razón por la que las celebridades son utilizadas en la publicidad). 4) La creencia de que la evidencia que uno ve es todo lo que hay. 5) El exceso de confianza. 6) Vincular el sentido de facilidad congnitiva con las ilusiones de la realidad, los sentimientos agradables y un estado de atención menor. 7) Distinguir entre lo sorpresivo y lo normal. 8) Inferir e inventar causas e intenciones. Así como la toma de decisiones del Sistema 1 puede haber sido responsable del lanzamiento del Challenger, también podría haber sido responsable de imputar motivos indebidos a los ejecutivos que decidieron dar luz verde al lanzamiento. 9) Sustituir a veces una pregunta más fácil por una difícil. 10) Aversión a la pérdida. Si se le pide a una persona que elija entre dos apuestas, cuando una de ellas tiene mayores expectativas de rentabilidad, pero a la vez una pequeña posibilidad de una pérdida mayor en comparación con la otra, la mayoría de las personas evitará la pérdida y elegirá aquella opción con una expectativa de rentabilidad menor. 58 ProfessionalSafety MARCH 2016 www.asse.org 11) Preferencia por el status quo. Efecto potencial sobre la seguridad Varios de estos vacíos pueden respaldar decisiones que van en contra de la seguridad. Por ejemplo, los números 1 (descuido de la ambigüedad), 2 (sesgo de confirmación) y 5 (exceso de confianza) pueden conducir a la adopción de un curso de acción sin una revisión suficiente. El número 4 (creencia de que la evidencia que uno ve es todo lo que hay) podría llevar a que la persona no busque más información, por asumir que las pruebas disponibles son todo lo que hay. El antídoto para una toma de decisiones seguras es invocar el Sistema 2. Todo proceso reflexivo invoca el Sistema 2. Por ejemplo, dicho proceso dará lugar a preguntas tales como: ¿Con qué otros métodos alternativos se puede realizar esta tarea? ¿Cuál alternativa es la más segura? ¿Tiene toda la información correspondiente sobre cómo hacer esto? ¿Qué tipo de información podría estar faltando?¿Cuál es la razón para decidir hacerlo de esta manera? ¿Se trata de un caso de “siempre lo hemos hecho de esta manera, así que vamos a continuar con el status quo”? Vacíos del Sistema 1: Un ejemplo bien conocido Según las características y vacíos del Sistema 1, es razonable la hipótesis que dice que el Sistema 1 fue el origen de la decisión de lanzar el Challenger. Un vacío de la toma de decisiones del Sistema 1 es el exceso de confianza. Sin duda, los ejecutivos de la NASA fueron demasiado confiados. Feynman (1999) sostiene que estas personas estimaron la probabilidad de que ocurriese una falla catastrófica en el orden de 1 en 1.000 misiones. Feynman y los ingenieros de vuelo consideraron esta probabilidad en el orden de 1 en 100. Se demostró que esta última estimación era correcta, con dos fallas catastróficas en menos de 200 vuelos. El segundo vacío es “lo que se ve es todo lo que hay”. Las personas tienden a pensar que las pruebas de la cuales son conscientes son toda la evidencia que hay. Quizás los ejecutivos de la NASA no estaban al tanto de los datos sobre las fallas de los sellos. Ciertamente estaban conscientes del hecho de que no se había producido ninguna falla catastrófica hasta el momento. Otro vacío importante es la preferencia por el status quo, que en este caso sería proceder con el lanzamiento. Muchas personas en la misma posición que los ejecutivos de la NASA probablemente habrían tomado la misma decisión, apoyándose en el Sistema 1. Por último, el vacío de aversión a la pérdida habría favorecido claramente la decisión de continuar con el lanzamiento. Aunque esta explicación de los vacíos del Sistema 1 podría absolver a los ejecutivos de tener motivos impropios, no les exime de la responsabilidad de tomar una mala decisión. No se tiene que llevar una vida basada en los comandos del Sistema 1. Los buenos ejecutivos deben ser capaces de tomar decisiones importantes en el modo del Sistema 2. La toma de decisiones determina en gran medida el control del rendimiento de la seguridad, ya sea la decisión de un operador de primera línea de ignorar un procedimiento, la decisión de un gerente sobre cómo motivar a los empleados a seguir los procedimientos, o la decisión de un directivo sobre cómo llevar a cabo las capacitaciones de los nuevos gerentes. Durante los últimos 21 años, los autores han utilizado encuestas sobre actitudes y creencias para facilitar la toma de decisiones y para determinar las áreas que necesitan mejoras (Carder y Ragan, 2012). Este proceso ha demostrado ser un método eficaz para mejorar el rendimiento de la seguridad. La aplicación de los últimos avances en psicología ha generado nuevas herramientas para comprender la toma de decisiones y tener influencia en ella, lo que eventualmente mejora el rendimiento de la seguridad. Una mejor toma de decisiones en la seguridad Como una persona responsable de la toma de decisiones que guardan relación con la seguridad, el profesional de OSH debe entender cómo funcionan estos sistemas, cómo protegerse contra sus inconvenientes y cómo maximizar sus oportunidades. Cada día las personas viven en el modo del Sistema 2, pero no pueden experimentar directamente el proceso del Sistema 1. Sin embargo, pueden estar conscientes de las conclusiones a las que llegan a través de su intuición y actuar en consecuencia. La existencia del Sistema 1 se deduce a partir de un gran número de experimentos realizados por Kahneman y muchos otros investigadores. Veamos el “problema de Linda” de Kahneman (2008). En esta situación, se le dijo a un sujeto: “Linda tiene 31 años, es soltera, franca y muy brillante. Cuando aún era estudiante, le interesaban muchísimo los asuntos relacionados con la discriminación y la justicia social, y también participaba en manifestaciones antinucleares”. Luego, se le preguntó: ¿Qué es más probable? Linda trabaja en un banco. O Linda es empleada bancaria y activista del movimiento feminista”. Kahneman (2008) señala que un 85% de los estudiantes de Princeton y un 33% de los estudiantes de posgrado en ciencias sociales tuvieron la segunda alternativa de respuesta. Y esa es la respuesta incorrecta. Hay muchas más personas que trabajan en un banco que personas que son empleados bancarios y además activistas del movimiento feminista, así que la primera respuesta es lo más probable. La respuesta incorrecta proviene del proceso intuitivo del Sistema 1. Es común que el Sistema 2 deje pasar ese tipo de respuestas sin recurrir a más evidencias. Veamos otro ejemplo de un problema que suele responderse con el Sistema 1 (Frederick, 2005). Tenemos un estanque con nenúfares. El número de estas plantas se duplica cada día. En 48 días, cubrirán todo el estanque. ¿En cuánto tiempo cubrirán la mitad del estanque? Sin pensar mucho, es lógico que si en 48 días cubren todo el estanque, en la mitad de ese tiempo (24 días) cubrirán la mitad. Esta es una respuesta del Sistema 1. No obstante, esta respuesta ignora el hecho de que los nenúfares están aumentando geométricamente. Si su número se duplica para cubrir todo el estanque en el día 48, deben haber cubierto la mitad del estanque en el día 47. Por lo tanto, la respuesta correcta es 47 días. El pensamiento del Sistema 1 saca conclusiones apresuradas y puede ignorar hechos importantes, como la tasa de crecimiento geométrico. Este escenario se incluyó en dos preguntas similares de la investigación de Frederick (2005).La puntuación fue diferente en cada universidad. Un cuarenta y ocho por ciento de los estudiantes del MIT tuvo las tres respuestas correctas. En una universidad de élite, el 64% de los estudiantes tuvo las tres mal. Según Frederick (2005), incluso aquellos que resolvieron el problema sostuvieron que la respuesta de los 24 días fue lo primero que se les vino a la mente. Para un ejemplo particularmente dramático del Sistema 1 en el trabajo, se mostró a las personas pares de imágenes por tan sólo 200 milisegundos (Ballew y Todorov, 2007). Se les pidió que decidieran cuál de los hombres de las fotografías era más competente. Sin que los sujetos supieran, las fotos eran de candidatos rivales en las elecciones gubernatoriales. Las respuestas de la persona más competente representan el 64% de los ganadores de las elecciones. Según Ballew y Todorov (2007), esto sugiere que muchos votantes recurren únicamente al Sistema 1 Tabla 1 Consecuencias de los vacíos del Sistema 1 para la seguridad para analizar el rostro de un candidato y así tomar una decisión sobre por quién votar. ¿Qué tan probable es encontrar una sola persona que admita que votó por un candidato basándose en la apariencia de su rostro? La Tabla 1 enumera varios vacíos del Sistema 1 y algunas de las posibles consecuencias para el rendimiento de la seguridad. Además de sus amplias capacidades, el Sistema 1 contiene vacíos que suelen llevar a la adopción de malas decisiones. Consecuencias del Sistema 1 para la seguridad Es razonable suponer que todo empleado que realice una tarea relativamente rutinaria esté funcionando principalmente bajo el Sistema 1, sin importar cuán peligrosa pueda ser la tarea cuando comete un error. Muchos vacíos del Sistema 1 apoyan la hipótesis de que todo está bien incluso cuando existen pruebas que sugieren lo contrario. De hecho, se esperaría que las personas involucradas experimenten el sentido de facilidad cognitiva, sentimientos agradables y un estado de atención menor. Existe un enfoque general para abordar tales cuestiones y consiste en invocar la forma de pensar del Sistema 2 para revisar las conclusiones ofrecidas por el Sistema 1. Esto podría incluir preguntas tales como: “¿Cuáles serían otras formas de hacer estas tareas? ¿Estas serían más seguras o más peligrosas?” Las respuestas no son tan importantes como la aplicación del patrón de pensamiento del Sistema 2 en estas cuestiones, tal como lo exige el subterfugio de los vacíos del Sistema 1. Soll, Milkman y Payne (2015) postulan una novedosa propuesta para no caer en los vacíos del Sistema 1, en especial aquella del exceso de confianza: el análisis premortem. Cuando se planifica un proyecto, los participantes asumen que ocurrió un incidente. El primer paso, decidir cuál fue el incidente, es el paso inicial para evitar el vacío. Todos los involucrados deben evaluar los riesgos. El siguiente paso es determinar por qué ocurrió el incidente; esto proporciona una visión más profunda de los riesgos que el exceso de confianza no llega a tocar. Soll, et al. (2015) también analizan el vacío de aversión a la pérdida, que puede causar la continuación de un www.asse.org MARCH 2016 ProfessionalSafety 59 tal proceso seguiría las técnicas de cambio de actitud (Festinger y Carlsmith, 1959). Las ideas de Kahneman (2008) se aplican asimismo a la investigación de incidentes. Por ejemplo, estas ideas ayudan a explicar el porqué las personas actuaron de una manera determinada y el porqué lo hicieron así durante un incidente. ¿Se esperaba que actuaran con la deliberación del Sistema 2 cuando el tiempo necesario para realizar la tarea se limitaba a una escala del Sistema 1? La comprensión de los vacíos del proceso de pensamiento del Sistema 1 también ofrece respuestas respecto a por qué los informes de los testigos presenciales del mismo incidente pueden diferir tanto. Los vacíos del Sistema 1, como el descuido de la ambigüedad y la deducción e invención, pueden provocar que los testigos llenen los vacíos de la historia; este proceso los ayuda a que un evento que no tenía sentido pase a tenerlo. Sin embargo, no son conscientes de que su mente está involucrada en este proceso. Por tanto, todo investigador de incidentes debe reconocer que estos vacíos pueden entrar en juego durante las entrevistas. Al comprender y reconocer los dos sistemas de la toma de decisiones en el trabajo, los profesionales de OSH pueden evaluar los riesgos de manera más eficaz, investigar incidentes y desarrollar planes estratégicos. curso de acción peligroso para evitar perder el tiempo y el esfuerzo que ya se han dedicado a algo. Muchos de los principales incidentes han ocurrido porque se prosiguió con una tarea a pesar de que habían pruebas de que el proceso no estaba siguiendo el camino correcto. Soll, et al. (2015) utilizan como ejemplo el alpinismo. Muchos escaladores han muerto tratando de llegar a la cima del Monte Everest, cuando las condiciones del tiempo cambiaron desfavorablemente o cuando era demasiado tarde. Su solución es un “cable de tracción”: un plazo concreto para llegar a un determinado punto. Si bien no hay una analogía sencilla para esto en una operación de producción, debiese haber una amplia discusión de cómo un proceso podría salirse del camino y qué hacer al respecto. Los vacíos del Sistema 1 son, al menos, un gran problema tanto para la suite ejecutiva como para la fábrica, ya que las malas decisiones que toman los ejecutivos a menudo tienen un efecto mucho más amplio. Las decisiones en torno al lanzamiento del Challenger son un ejemplo perfecto. Bailey y Petersen (1989) sostienen que las encuestas de percepción son la mejor manera de evaluar el rendimiento de un sistema de seguridad en comparación con los recuentos de incidentes. Carder y Ragan (2012) llegan a una conclusión similar basándose en sus 20 años de experiencia y en un número considerable de investigaciones sobre la medición de la eficacia de un sistema de seguridad. Las encuestas son superiores a los recuentos de incidentes. A Petersen (2000) le desconcierta el porqué es tan difícil lograr que los ejecutivos comprendan esto. Los vacíos del Sistema 1 pueden tener una explicación. Primero, a través de los recuentos de incidentes se mantiene el statu quo. Segundo, el vacío de “lo que ves es todo lo que hay” sugiere que muchos ejecutivos no solicitarán información sobre este tema y asumirán que la evidencia que tienen es todo lo que hay. La ilusión de de la realidad conduce a sentimientos agradables y a un sentido de facilidad cognitiva. Una manera de abordar esto sería pedir a estos ejecutivos que elaboren un argumento de por qué las encuestas son superiores a los recuentos de incidentes. Este ejercicio les exigiría considerar nuevas pruebas. Y también 60 ProfessionalSafety MARCH 2016 www.asse.org Conclusión Existen otros hallazgos de Kahneman (2008) que vale la pena profundizar. Los profesionales de OSH pueden utilizar los últimos avances en el campo de la psicología para que sea más probable que la toma de decisiones para la seguridad sea apropiada, lo cual en última instancia conducirá a un menor número de incidentes. Al comprender y reconocer los dos sistemas de la toma de decisiones en el trabajo, los profesionales de OSH pueden evaluar los riesgos de manera más eficaz, investigar incidentes y desarrollar planes estratégicos. PS Referencias Bailey, C. y Petersen, D. (Feb. de 1989). Using perception surveys to assess safety program effectiveness. Professional Safety, 34(2), 22-26. Ballew, C.C. y Todorov, A. (2007). Predicting political elections from rapid and unreflective face judgments. Proceedings of the National Academy of Sciences, 104(46), 17948-17953. Carder, B. y Ragan, P. (2012). Benchmarking and performance appraisal criteria. In J. Haight (Ed.), The safety professionals handbook (pp. 249-277). Des Plaines, IL: ASSE. Festinger, L. y Carlsmith, J.M. (1959). Cognitive consequences of forced compliance. Journal of Abnormal and Social Psychology, 58, 203-210. Feynman, R.P. (1999). The pleasure of finding things out. Nueva York, NY: Basic Books. Frederick, S. (2005). Cognitive reflection and decision making. Journal of Economic Perspectives, 19(4) 25-42. Kahneman, D. (2008). Thinking fast and slow. New York, NY: Farrar, Straus y Giroux. Petersen, D. (2000, Jan.). Safety management 2000: Our strengths and weaknesses. Professional Safety, 45(1), 16-19. Soll, J.B., Milkman, K.L. y Payne, J.B. (2015, May). Outsmart your own biases. Harvard Business Review. Retrieved from https://hbr.org/2015/05/outsmart-your -own-biases