Gestión de la Seguridad Revisado por pares Empleados ¿Un problema que controlar o una solución que aprovechar? Por Sidney Dekker EN RESUMEN D urante todo el siglo 20, han existido dos mentalidades en cuanto al rol de los seres humanos en la creación y violación de la seguridad. Un punto de vista es que los humanos son un problema que se debe controlar. Antes de la Segunda Guerra Mundial, un psicólogo de Oxford llamado Vernon estudió 50.000 incidentes de lesiones personales y concluyó que estas “dependen generalmente de la despreocupación y falta de atención de los trabajadores (Burnham, 2009, p. 53). En ese momento, se consideraba que “el factor humano” era una característica específica del individuo, los “defectos físicos, mentales o morales” que predisponían a ciertas personas a los accidentes (p. 61). Los humanos eran considerados como la causa del problema de seguridad. Estas características negativas podrían identificarse mediante pruebas o evaluaciones de los empleados. La psicología estaba dominada por el conductismo en ese entonces (algo que en estos días aún se ve en la seguridad conductual). El conductismo pretende influir el comportamiento humano para que así se adapte a la limitaciones y exigencias del sistema en el que trabajan las personas. En realidad, no se le pregunta a las personas porqué hacen lo que hacen, ya que no cuenta con modelos mentales para explicarlo (de hecho, se resiste activamente a tal introspección). Sidney Dekker, Ph.D., es profesor de la Universidad Griffith en Queensland, Australia, donde fundó el Safety Science Innovation Lab, y es profesor honorario de factores humanos y seguridad de pacientes en el Royal Children’s Hospital en Brisbane. Anteriormente, fue profesor en la Universidad Lund en Suecia, donde fundó el Laboratorio Leonardo da Vinci para el Pensamiento Sistémico Complejo. Ha sido asociado principal de la Universidad Tecnológica de Nanyang de Singapur y profesor honorario del Departamento de Epidemiología 32 ProfessionalSafety AUGUST 2014 www.asse.org En vez de ello, la intervención conductista asume que con los incentivos y sanciones adecuadas, las personas pueden comprometerse con la seguridad. La Segunda Guerra Mundial cambió esta situación. Los avances tecnológicos eran tan rápidos y complejos que ningún grado intervención que abordara al trabajador podía por sí solo solucionar los problemas de seguridad. Prácticamente todos los pilotos de la Fuerza Aérea del Ejército de los EE.UU., por ejemplo, sin importar su nivel de experiencia y habilidades, reportaban errores en el manejo de los controles (Chapanis, 1970; Fitts y Jones, 1947). En vez de intentar cambiar al humano para que los incidentes fuesen menos probables, los ingenieros se dieron cuenta de que podían, y debían, cambiar las tecnologías y tareas para disminuir esas probabilidades de error y los incidentes. ”Debía ser posible eliminar gran parte de los llamados accidentes por “error del piloto” al diseñar equipos acordes a los requerimientos humanos” (Fitts y Jones, 1947, p. 332). Los seres humanos dejaron de con- y Medicina Preventiva de la Universidad Monash en Melbourne. Su trabajo sobre el error humano y la seguridad ha sido reconocido en todo el mundo, y recientemente expuso en Safety 2014. Dekker estudió psicología en la Universidad de Nijmegen (ahora conocida como Universidad de Radboud), obtuvo su maestría en Psicología Experimental en la Universidad de Leiden, Países Bajos, y obtuvo un Ph.D. en Ingeniería de Sistemas Cognitivos en la Universidad del Estado de Ohio. ©ISTOCKPHOTO/ARTQU •Las intervenciones de seguridad pueden tener como objetivo a los humanos o los entornos tecnológicos u organizacionales. La elección implica integrar a las personas a sistemas fijos o acondicionar estos últimos para que se adapten a las personas. •Actualmente, varios factores parecen favorecer las intervenciones que consideran a las personas como un problema que controlar (mediante procedimientos, cumplimiento de normas, estandarización, sanciones). La seguridad se mide principalmente por la ausencia de factores negativos. •Los profesionales de la seguridad deben ver a las personas como una solución que aprovechar, en vez de un problema que controlar, y considerar la seguridad más como una presencia de capacidades positivas, y pasar de utilizar un vocabulario de control, restricción y carencia a uno de empoderamiento, diversidad y oportunidad humana. siderarse como la causa del problema; eran los destinatarios del problema, el cual podía, en cierta medida, diseñarse y organizarse de una forma distinta: Lo que sucedió fue que en las últimas décadas del siglo 20, todos los expertos que trabajaban en la mecanización de los diferentes entornos dejaron de centrarse en la despreocupación o en la persona “maldita” que causaba los accidentes. En cambio, ahora estaban concentrados en inventar tecnologías que evitarían los daños sin importar cuán erradas fuesen las acciones de un individuo, como un trabajador o un conductor (Burnham, 2009, p. 5) La psicología que instaba esto era diferente al conductismo. Era una psicología de la cognición, una ciencia que estaba interesada en comprender qué les hizo sentido a las personas para hacer lo que hicieron. Para esto, fue necesario desarrollar modelos mentales: de la atención, la percepción, la toma de decisiones y el procesamiento de información. Es así como las tecnologías y los entornos de trabajo pudieron diseñarse en consideración de lo que se había aprendido sobre el desempeño del humano y sus limitaciones. La ingeniería de la seguridad de hoy ¿Cómo nos relacionamos con las ideas de la ingeniería de la seguridad el día de hoy? La inestabilidad entre ellas sigue siendo visible. Por un lado, hemos aprendido a través de numerosos eventos negativos de alta visibilidad que las personas son recursos que se deben aprovechar, que lo que importa son los conocimientos técnicos y la experiencia práctica. Después del incidente del Columbia, por ejemplo, se le dijo a la NASA que necesitaba “restablecer el respeto por los expertos técnicos, empoderar a los ingenieros para que obtuvieran los recursos que necesitaban y permitir que las preocupaciones por la seguridad se pudieran expresar libremente” (CAIB, 2003, p. 203). Otro ejemplo: antes de la explosión de la refinería Texas City en 2005, BP había eliminado varios miles de puestos de trabajo en EE.UU. y había externalizado el perfeccionamiento del trabajo tecnológico. Muchos ingenieros experimentados se fueron (Baker, 2007). El respeto por los conocimientos técnicos significa comprometerse con aquellos que tienen experiencia en el reconocimiento de riesgos y anomalías en los procesos operativos. Estas personas pueden ser trabajadores que están en contacto directo con los procesos críticos de la seguridad de la organización. Esto se ha convertido en un precepto bien establecido en las investigaciones de organizaciones de gran confiabilidad y resiliencia (Hollnagel, Woods y Leveson, 2006; Weick y Sutcliffe, 2007). Dicho esto, los expertos tampoco acertamos siempre. Las investigaciones han identificado los límites del conocimiento privilegiado que tienen los expertos en cuanto a los procesos críticos y márgenes de la seguridad (Dörner, 1989). Un éxito operativo continuo, por ejemplo, puede ser percibido por los expertos como evidencia de que se han desarrollado vías libres de riesgos (Barton y Sutcliffe, 2009; Starbuck y Milliken, 1988), y una competencia técnica excepcional por lo general se asocia al hecho de asumir más riesgos (Amalberti, 2013). ¿Una mayor burocratización? La cuestión es si la solución reside en una mayor burocratización y en ver a las personas como un problema que se debe controlar. Primero, definamos el término burocratización. Este se refiere al gobierno administrativo –el que no necesariamente es ejercido por miembros de la organización representativa– de la relación entre los medios que una organización dedica a la seguridad y el fin que persigue. La burocratización implica jerarquía, especialización, división del trabajo y reglas oficiales. Entre los años 1974 y 2008, Townsend (2013) mostró una duplicación del número de estatutos de la seguridad y un aumento de 100 veces de los reglamentos que los interpretan y aplican, con una proliferación concomitante de las “industrias de servicios” para las auditorías, investigaciones, precalificaciones, cumplimiento de normas, reclutamientos, capacitaciones, acreditaciones y consultorías relacionadas con la seguridad (p. 51). En otro ejemplo, el número de empresas certificadas que se dedican a la salud y seguridad ocupacional en 116 países pasó a ser más del doble, desde 26.222 en 2006 a 56,251 en 2009 (Hasle y Zwetsloot, 2011). Actualmente, existe una experiencia de “locura por la salud y seguridad” (Townsend, 2013, p. 59) y de “poca burocracia” (Hale, Borys y Adams, 2013). Estos son algunos ejemplos de todo el mundo: •Explotación petrolera: En 2008, 2 años después del estallido de los pozos de Macondo, BP advirtió que habían “demasiados procesos de riesgo” que se habían vuelto “demasiado complicados y engorrosos como para ser manejados de forma eficaz” (Elkind y Whitford, 2011, p. 9). Si bien se pueden celebrar los éxitos mensurables de la seguridad, por lo visto, la comprensión coherente de la organización sobre el riesgo de ingeniería en una compleja red de contratistas se ha quebrado. •Viajes escolares: La Autoridad de Salud y Seguridad del Reino Unido recientemente publicó una clarificación con respecto a: Los seres humanos dejaron de considerarse como la causa del problema; eran los destinatarios del problema. los malentendidos sobre la aplicación de la ley de salud y seguridad que puede, en algunos casos, disuadir a las escuelas y profesores de que organicen viajes [escolares]. Estos ... pueden incluir frustraciones relacionadas con el papeleo, temores por posibles juicios si el viaje sale mal [o] que un profesor sea demandado si un niño resulta lesionado (HSE, 2011, p. 1). •Aviación: El ritmo de la generación de nuevas normas en la aviación ha aumentado de forma significativa, aunque que la seguridad aérea global ha estado estancado por años en un nivel de 10-6 (más de 200 políticas/pautas/ normas nuevas al año). Puesto que nadie sabe en realidad cuáles son las normas/pautas que efectivamente se vinculan con el nivel de seguridad final, el sistema es solo una añadidura, y las normas y pautas antiguas nunca se han mejorado (Amalberti, 2001, p. 111). •Estudios de la vida silvestre: Un profesional que realiza estudios de impacto medioambiental en Australia dijo: Estoy obligado a llevar un casco (incluso en terrenos sin árboles); prendas de alta visibilidad; camisa de manga www.asse.org AUGUST 2014 ProfessionalSafety 33 larga con botones en los puños; pantalones largos; botas con puntas de acero; y lentes de seguridad. Es posible que tenga que llevar un GPS, RLS, radio UHF, botiquín de primeros auxilios, 5 kilogramos de agua, protector solar, repelente contra insectos y, en ciertas ocasiones, un desfibrilador (Reis, 2014) •Adquisiciones, que ahora por lo general requiere “cuestionarios de salud y seguridad de los proveedores/ postulantes a licitación ... cuya complejidad es variable o creciente y que requieren diferentes informaciones”, y el aumento en el uso de un “tercero para evaluar la idoneidad de un proveedor para ser incluido en la lista de aprobados que incluye un costo de evaluación y una cuota anual de membresía (Simmons, 2012, p. 20). Por supuesto, el aumento de reglamentos y el tipo de estandarización y sistematización que viene con el aumento de la burocratización de la seguridad en las últimas décadas le debe mucho al compromiso moral de dejar de lastimar y matar a las personas en el trabajo. Sin embargo, hay otros factores que probablemente entran al juego también. La externalización del trabajo, por ejemplo (lo que incluye el trabajo crítico para la seguridad), es otra tendencia de las últimas décadas. Gestionar, monitorear y controlar las operaciones en una red de contratistas y subcontratistas tiende a ser mucho más complejo, por lo que la organización burocrática se convierte en un medio plausible para hacer las cosas (Vaughan, 1996). Esto incluye autorregulación, donde las organizaciones se necesitan a sí mismas para reunir, analizar y destilar los datos solicitados por los reguladores y entre sí. La responsabilidad burocrática se está convirtiendo cada vez más en un requisito de empresa a empresa, como ocurre cuando se muestran tasas de incidentes con lesiones incapacitantes o tasas de incidentes con tratamiento médico, o cuando se demuestra la presencia de un sistema de gestión de salud y seguridad (Collins, 2013; Hasle y Zwetsloot, 2011). Además, las capacidades tecnológicas para la vigilancia y la supervisión del comportamiento en los lugares de trabajo se han ampliado en las últimas décadas. El compromiso con una visión cero es necesaria y también ha sido posible por la vigilancia y medición de los datos de lesiones e incidentes, lo que a su vez requiere y genera procesos de responsabilidad burocrática para su recolección, notificación, tabulación, almacenamiento y análisis (Hallowell y Gambatese, 2009; Zwetsloot, Aaltonen, Wybo, et al., 2013). Efectos secundarios (negativos) de la seguridad burocratizada Los beneficios que una mayor burocratización ofrece a la seguridad, sin embargo, parecen estar disminuyendo o estancándose en muchas industrias (Townsend, 2013). Seguir considerando a las personas como un problema que controlar a través de protocolos y cumplimiento de normas puede tener como resultado más de lo mismo y no mucho progreso. Además, la burocracia tiende a generar efectos secundarios que en realidad van en contra de sus objetivos. Las investigaciones realizadas en las últimas décadas muestran que tales efectos secundarios en la seguridad incluyen una incapacidad de predecir eventos inesperados, un enfoque en la responsabilidad burocrática, la cuantificación y juego de números, la creación ocasional de problemas de seguridad que resultan de la aplicación de normas o sistemas de seguridad y limitaciones a la libertad, diversidad y creativi- 34 ProfessionalSafety AUGUST 2014 www.asse.org dad de los trabajadores. A continuación presentamos algunos hechos destacados. •Un reciente análisis Delphi de las intervenciones de seguridad en la industria de la construcción demostró que se considera que las intervenciones más asociadas con la burocracia no valen mucho la pena (Hallowell y Gambatese, 2009). Esto incluye la escritura de planes y políticas de seguridad; control de registros y análisis de incidentes; y planificación de respuestas ante emergencias. Contar con esto no marca una diferencia significativa en la seguridad. Mientras más políticas y estructuras se desarrollen o impongan burocráticamente por aquellos que están lejos de la operación, menos podrán representar el riesgo y cómo se manejan en la práctica. La planificación de respuestas ante emergencias ha sido criticada en este respecto, particularmente porque genera documentos de fantasía que poco tienen que ver con los requisitos o condiciones reales. Estos documentos son probados con la realidad solo en raras ocasiones y nacen de una perspectiva irrealista e idealista de la organización y su entorno (Clarke y Perrow, 1996). •Un estudio del sector de la construcción y la manufactura en Finlandia de 1977 a 1991 demostró una clara correlación negativa entre la tasa de incidentes y las fatalidades (r = -.82, p < .001). Es decir, mientras menos incidentes reportaba una obra de construcción, más alta era su tasa de mortalidad (Saloniemi y Oksanen, 1998). Las bajas tasas de notificación de incidentes pueden indicar lugares de trabajo donde los superiores no están abiertos a escuchar malas noticias, lo cual puede explicar el porqué aquellos entornos donde se reportan menos incidentes también presentan más incidentes mortales. La visión cero puede estar implicada a veces, ya que puede favorecer la supresión, desmotivación (p. ej., a través de pruebas de detección de drogas posteriores a una lesión) o recategorización de datos de incidentes o lesiones (Donaldson, 2013), y puede llevar a otros “juegos de números” (Frederick y Lessin, 2000), como el uso inadecuado de tareas modificadas o programas de reincorporación al trabajo (Collins, 2013; U.S. GAO, 2012). •A pesar del punto sobre las bajas tasas de notificación de incidentes, en las industrias con un rendimiento de la seguridad cerca del 0% (p. ej., un pequeño residuo de fatalidades), el valor predictivo de los incidentes (para aquellas muertes o incidentes con consecuencias mayores) ya no es tan obvio (Amalberti, 2013). Los incidentes más grandes de estas industrias parecen estar precedidos por las cosas que son vistas como incidentes (o que jamás se informaron así), pero por el trabajo normal. Los incidentes son precedidos por una deriva gradual hacia la falla, generada por las presiones de producción y los continuos éxitos operativos (Dekker, 2011). Estos “reajustes hasta que algo se quiebra” (Starbuck y Milliken, 1988) son difíciles de captar en la notificación de incidentes, ya que los precursores son parte de los complejos detalles del trabajo normal, las soluciones y frustraciones diarias que entran en juego cuando se hace el trabajo. Por lo general, los sistemas burocráticos de tabulación y notificación no son sensibles a estas sutilezas. •Las reglas, por supuesto, ofrecen ventajas similares al seguidor y a quien las impone. Estas ahorran tiempo y esfuerzo, evitan volver sobre lo mismo, ofrecen claridad en cuanto a las tareas y responsabilidades y generan mayor previsibilidad. Las desventajas, sin embargo, incluyen demandas de supervisión para seguir el cumplimiento de normas y ceguera o falta de preparación frente a las situaciones nuevas que no encajan en las reglas (Hale y Swuste, 1998). También pueden sentirse como una falta de libertad y una limitación para las iniciativas, lo que dificultan la innovación: “El cumplimiento de reglamentos detallados y descriptivos puede generar una cultura de cumplimiento reactivo, que suprime la innovación en el desarrollo de nuevos productos, procesos y medidas de control riesgos” (Hale, et al., 2013, p. 2). •Seguir reglas y cumplir procedimientos y protocolos burocráticos realmente puede ser perjudicial para la seguridad en ciertas circunstancias (Dekker, 2001): “Accidentes grandes como el de Mann Gulch y Piper Alpha han demostrado que aquellos que violan las reglas son quienes sobreviven a tales emergencias, mientras los que las obedecen son quienes mueren” (Hale y Borys, 2013, p. 214). Esto, por supuesto, es el resultado de la insensibilidad de las reglas y la presión por cumplir para el contexto (Dekker, 2003; Woods y Shattuck, 2000). El caso del asesor de impacto medioambiental (p. 34) presenta un ejemplo bastante obvio (y menos extremo): al imponer el uso de varias capas de PPE, como el casco y las mangas largas, el portador puede sufrir deshidratación e insolación de forma más rápida en el clima en el que suele trabajar. Conclusión y propuestas La burocratización de la seguridad se ha generado por una complejidad de factores, como la legislación y la regulación, cambios en los acuerdos de responsabilidad y seguros, un movimiento generalizado para externalizar y contratar, y un aumento de las capacidades tecnológicas para la vigilancia, seguimiento, almacenamiento y análisis de datos. La burocratización tiende a ver a las personas como un problema que controlar (p. ej., estandarizando y fijando reglas, esperando el cumplimiento de normas) y genera efectos secundarios que van en contra de sus objetivos originales. Estos efectos incluyen el emprendimiento burocrático, una incapacidad de predecir eventos inesperados, un enfoque en la responsabilidad burocrática, la cuantificación y juegos de números, la creación ocasional de nuevos problemas de seguridad y restricciones a la libertad personal, diversidad e innovación de los miembros de la organización. La solución más útil es encontrar un equilibrio entre la seguridad burocráticamente controlada y la seguridad gestionada por el trabajador (Amalberti, 2013), o entre el respeto por el protocolo y los procedimientos por un lado, y la experiencia práctica por el otro (Galison, 2000). Al enfrentarse a un problema de seguridad o a la propuesta de una solución, pregunte lo siguiente: •¿Quién o qué es lo que causó el problema de seguridad, o qué es responsable? Si pregunta quién es responsable, probablemente verá a las personas (o a una persona, ciertas personas) como el problema que se debe controlar. Estas personas pueden, sin embargo, ser el receptor de un problema más profundo dentro de la organización (Dekker, 2006). •¿Cuál es el equilibrio de la organización entre la intervención a nivel de conducta (lo que podría suponer que las herramientas y las tareas son fijas, y que las personas deben adaptarse a ellas) y la intervención con las condiciones de trabajo y los equipos de las personas (lo que sugiere que el entorno se puede transformar con el objetivo de que la gente se adapte mejor)? Si las inversiones de capital se hicieron en maquinaria que pueden durar unas cuantas décadas más, es posible que no haya elección. Pero estas lecciones pueden informar el diseño de la siguiente generación de los equipos. •¿La seguridad se está midiendo en su mayor parte como una ausencia de eventos negativos? o ¿el enfoque está en buscar la presencia de capacidades positivas en las personas, equipos, organización? Estas incluyen la capacidad de cuestionar el éxito continuo (y no verlo como una garantía de la futura seguridad), la capacidad de decir no frente a las presiones relacionadas con la producción, y la capacidad de traer perspectivas nuevas a un problema y escuchar la voz de abajo. •¿Están las políticas de seguridad organizadas principalmente en torno a limitar, restringir y controlar lo que hacen las personas? o ¿las políticas realmente empoderan a las personas, las animan a compartir o las invitan para que contribuyan a la innovación? •Cuando se observa que un trabajador actúa de forma insegura, ¿sólo le dice que no debe hacerlo? ¿o trata de entender porqué para él tiene sentido hacer eso? Las personas probablemente no vienen al trabajo a hacer las cosas mal. Si lo que el trabajador hizo tiene sentido para él, es probable que tenga sentido para otros también. Eso indica que las condiciones del sistema se deben revisar. •Cuando se observa un vacío entre cómo las personas trabajan y qué les dicen las reglas que deben hacer, ¿eso se considera una violación? Eso significa que ya se ha decidido quién está en lo correcto y no se ha aprendido nada nuevo. Al contrario, considere este mismo vacío como trabajadores que terminan el diseño de un procedimiento o equipo porque tal diseño no era perfecto como para comenzarlo. Vea el vacío como una resiliencia, como trabajadores que reconocen y se adaptan a situaciones que no se cubrieron en los diseños o capacitaciones. •¿Usted, tal como Corrie Pitzer galardonado por ASSE preguntaría, le dice a la gente que los llevará a la seguridad y que está haciendo que sean a prueba de riesgos? ¿o es honesto en cuanto a que los expondrá a riesgos cada día, y que lo que desea es que sean expertos en riesgos? PS www.asse.org AUGUST 2014 La solución más útil es encontrar un equilibrio entre la seguridad burocráticamente controlada y la seguridad gestionada por el trabajador. ProfessionalSafety 35 Referencias Amalberti, R. (2001). The paradoxes of almost totally safe transportation systems. Safety Science, 37(2-3), 109-126. Amalberti, R. (2013). Navigating safety: Necessary compromises and trade-offs—theory and practice. Heidelberg, Alemania: Springer. Baker, J.A. (2007). The report of the BP U.S. Refineries Independent Safety Review Panel. Washington, DC: BP U.S. Refineries Independent Safety Review Panel. Barton, M.A. y Sutcliffe, K.M. (2009). Overcoming dysfunctional momentum: Organizational safety as a social achievement. Human Relations, 62(9), 1327-1356. Burnham, J.C. (2009). Accident prone: A history of technology, psychology and misfits of the machine age. Chicago, IL: University of Chicago Press. Columbia Accident Investigation Board (CAIB).(2003). Report Volume 1, August 2003. Washington, DC: Autor. Chapanis, A. (1970). Human factors in systems engineering. In K.B. De Greene (Ed.), Systems psychology (pp. 51-78). Nueva York, NY: McGraw-Hill. Clarke, L. y Perrow, C. (1996). Prosaic organizational failure. American Behavioral Scientist, 39(8), 1040-1057. Collins, R. (2013, March). Losing faith in lost-time injuries. Inside Safety, 4-5. Dekker, S.W.A. (2001). Follow the procedure or survive. Human Factors and Aerospace Safety, 1(4), 381-385. Dekker, S.W.A. (2003). Failure to adapt or adaptations that fail: Contrasting models on procedures and safety. Applied Ergonomics, 34(3), 233-238. doi:10.1016/s00036870(03)00031-0 Dekker, S.W.A. (2006). The field guide to understanding human error. Aldershot, Reino Unido: Ashgate Publishing Co. Dekker, S.W.A. (2011). Drift into failure: From hunting broken components to understanding complex systems. Farnham, Reino Unido: Ashgate Publishing Co. Donaldson, C. (Marzo de 2013). Zero harm: Infallible or ineffectual? OHS Professional, 22-27. Dörner, D. (1989). The logic of failure: Recognizing and avoiding error in complex situations. Cambridge, MA: Perseus Books. Elkind, P. y Whitford, D. (24 de enero de 2011). BP: “An accident waiting to happen.” Fortune, 1-14. Fitts, P.M. y Jones, R.E. (1947). Analysis of factors contributing to 460 “pilot error” experiences in operating aircraft controls. Dayton, OH: Aero Medical Laboratory, Air Material Command, Wright-Patterson Air Force Base. Frederick, J. y Lessin, N. (Nov. de 2000). The rise of behavioral-based safety programs. Multinational Monitor, 21(11), 1-7. Galison, P. (2000). An accident of history. In P. Galison y A. Roland (Eds.), Atmospheric flight in the 20th century (pp. 3-44). Dordrecht, Países Bajos: Kluwer Academic. Graham, B., Reilly, W.K., Beinecke, F., et al. (2011). Deep water: The Gulf oil disaster and the future of offshore drilling [Report to the President]. Washington, DC: National Commission on the BP Deepwater Horizon Oil Spill and Offshore Drilling. Hale, A. y Borys, D. (Junio de 2013). Working to rule, or working safely? Parte 1: A state-of-the-art review. Safety Science, 55, 207-221. 36 ProfessionalSafety AUGUST 2014 www.asse.org Hale, A., Borys, D. y Adams, M. (2013). Safety regulation: The lessons of workplace safety rule management for managing the regulatory burden. Safety Science. Extraído de http://dx.doiorg/10.1016.j.ssci.2013.11.012 Hale, A. y Swuste, P. (1998). Safety rules: Procedural freedom or action constraint? Safety Science, 29(3), 163-177. Hallowell, M.R. y Gambatese, J.A. (2009). Construction safety risk mitigation. Journal of Construction Engineering and Management, 135(12), 1316-1323. Hasle, P. y Zwetsloot, G.I.J.M. (Agosto de 2011). Editorial: Occupational Health and Safety Management Systems: Issues and challenges. Safety Science, 49(7), 961-963. Hollnagel, E., Woods, D.D. y Leveson, N.G. (2006). Resilience engineering: Concepts and precepts. Aldershot, Reino Unido: Ashgate Publishing Co. Health and Safety Executive. (2011). School trips and outdoor learning activities: Tackling the health and safety myths. Liverpool, Reino Unido: Autor. Reis, T. (2014). How wearing a hard hat can threaten wildlife. Sydney, Australia: Australian Broadcasting Corp. Saloniemi, A. y Oksanen, H. (1998). Accidents and fatal accidents—Some paradoxes. Safety Science, 29(1), 59-66. Simmons, R. (Mayo de 2012). The stranglehold of bureaucracy. The Safety & Health Practitioner, 30, 20. Starbuck, W.H. y Milliken, F.J. (1988). Challenger: Finetuning the odds until something breaks. The Journal of Management Studies, 25(4), 319-341. Townsend, A.S. (2013). Safety can’t be measured. Farnham, Reino Unido: Gower Publishing. U.S. Government Accountability Office (GAO). (9 de abril de 2012). Workplace safety and health: Better OSHA guidance needed on safety incentive programs [Informe para los solicitantes del Congreso] [No. GAO-12-329]. Washington, DC: Autor. Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture and deviance at NASA. Chicago, IL: University of Chicago Press. Weick, K.E. y Sutcliffe, K.M. (2007). Managing the unexpected: Resilient performance in an age of uncertainty (2° edición). San Francisco, CA: Jossey-Bass. Woods, D.D. y Shattuck, L.G. (2000). Distant supervision— Local action given the potential for surprise. Cognition, Technology & Work, 2(4), 242-245. Zwetsloot, G.I.J.M., Aaltonen, M., Wybo, J.L., et al. (2013). The case for research into the zero accident vision. Safety Science, 58, 41-48.