3 de enero de 2026 - 00:15

La prevención como cultura, no como reacción

Decisiones en tiempo real. Las organizaciones más seguras no son las que reaccionan mejor, sino las que aprenden incluso cuando todo parece bajo control.

Vivimos rodeados de sistemas que hacen posible la vida cotidiana y que, aunque no los veamos, requieren una precisión extraordinaria: hospitales que funcionan las 24 horas, aviones que despegan y aterrizan con total regularidad, redes eléctricas que abastecen ciudades enteras, laboratorios, industrias químicas, servicios de emergencia. Sin embargo, a pesar de su complejidad, seguimos analizando los incidentes y problemas que allí ocurren con una lógica heredada de hace más de un siglo: buscar un culpable, encontrar “la causa” y pensar que aumentar los controles resolverá lo ocurrido.

La realidad es mucho más compleja. Los sistemas modernos no fallan por un único error, sino por la combinación de múltiples presiones, decisiones, variabilidades humanas y fallos estructurales que interactúan de manera imprevisible. Y, sin embargo, el discurso social —y muchas veces institucional— continúa funcionando bajo la premisa de que siempre hay alguien que “debería haber hecho algo distinto”.

La prevención como cultura, no como reacción
Alternativas. La ciencia dispone hoy de más herramientas para neutralizar la contaminación industrial.

Alternativas. La ciencia dispone hoy de más herramientas para neutralizar la contaminación industrial.

Uno de los grandes desafíos de nuestro tiempo es aceptar que la incertidumbre, lejos de ser un enemigo, es un elemento constitutivo de los sistemas donde trabajamos. La salud, la aviación, la energía, el transporte o la industria farmacéutica conviven con decisiones en tiempo real, información incompleta, fatiga, urgencia y presiones operativas que influyen radicalmente en lo que ocurre. No existe la perfección: existe la adaptación.

En este contexto, la clásica visión del determinismo —esa idea de que cada efecto tiene una causa clara, estable y fácilmente identificable— ha quedado obsoleta. La ciencia de la complejidad demostró que los sistemas sociotécnicos funcionan mediante interacciones no lineales: pequeñas variaciones pueden desencadenar grandes consecuencias, mientras que situaciones de riesgo extremo pueden resolverse sin incidentes gracias a la capacidad de quienes trabajan en primera línea. Comprender estas dinámicas es fundamental para dejar atrás modelos de análisis que ya no explican la realidad.

Uno de los grandes desafíos de nuestro tiempo es aceptar que la incertidumbre, lejos de ser un enemigo, es un elemento constitutivo de los sistemas donde trabajamos. La salud, la aviación, la energía, el transporte o la industria farmacéutica conviven con decisiones en tiempo real, información incompleta, fatiga y urgencias.

Un punto central para entender estos fenómenos son los factores humanos. La toma de decisiones en contextos críticos está atravesada por sesgos, atajos mentales, presiones, emociones y rutinas. En retrospectiva, todo parece obvio. Pero en el momento real, con la información realmente disponible, la decisión suele ser razonable y hasta la mejor posible. La pregunta no debería ser “¿por qué cometió ese error?”, sino “¿por qué tuvo sentido esa acción en ese contexto?”. Esta mirada permite aprender del error, en lugar de castigarlo.

A este enfoque se suma otro concepto indispensable: la cultura organizacional. No basta con tener protocolos: lo que define la seguridad en la práctica es cómo reaccionan las personas al reporte de un incidente, cómo se sancionan (o no) los errores, cómo se gestiona la información, y qué mensajes se transmiten explícita e implícitamente desde los líderes. Una cultura punitiva genera silencio y ocultamiento; una cultura segura promueve el aprendizaje y la transparencia.

La prevención como cultura, no como reacción
Imágenes. El cartel señala diversas actividades humanas y algunos factores de prevención.

Imágenes. El cartel señala diversas actividades humanas y algunos factores de prevención.

La mayor parte de los problemas graves que ocurren en sistemas complejos no se deben a individuos descuidados, sino a condiciones latentes: falta de recursos, comunicación deficiente, información incompleta, desactualización tecnológica, presiones por productividad, fatiga, horarios extensos, ambigüedad en los roles. Son problemas que no se ven en el último minuto —cuando aparece el fallo visible—, sino que se acumulan lentamente y crean el escenario perfecto para que un incidente ocurra.

Comprender estos mecanismos permite avanzar hacia modelos más modernos, como los enfoques de resiliencia organizacional. En lugar de concentrarse únicamente en evitar errores, estos modelos estudian por qué las cosas salen bien la enorme mayoría del tiempo. Los equipos improvisan, se adaptan, compensan fallos tecnológicos, negocian prioridades y resuelven situaciones inesperadas sin que nadie lo perciba. La seguridad emerge, en gran parte, de esa capacidad adaptativa.

Los desafíos del siglo XXI hacen que esta conversación sea más urgente que nunca. La saturación cognitiva, la creciente digitalización, el avance de la inteligencia artificial, la presión por la eficiencia, la complejidad creciente de los sistemas de salud y las industrias críticas, y la sobrecarga emocional de los equipos generan escenarios donde los riesgos no desaparecen: se transforman. Hoy se necesitan modelos que integren tecnología con comprensión humana, regulación con flexibilidad, y control con análisis profundo del sistema.

Esta nueva mirada no implica desestimar la responsabilidad individual, sino entenderla dentro de un sistema más amplio. La negligencia existe y debe ser tratada. Pero confundir error humano con negligencia tiene consecuencias devastadoras: genera miedo, silencio organizacional, reportes incompletos y decisiones defensivas. Cuando las personas sienten que cualquier error será castigado, la información desaparece, y con ella desaparece la posibilidad de aprender.

La prevención como cultura, no como reacción
Amplitud de criterio. La toma de decisiones en un entorno aeronáutico implica rapidez y una elección adecuada ante cualquier emergencia en vuelo.

Amplitud de criterio. La toma de decisiones en un entorno aeronáutico implica rapidez y una elección adecuada ante cualquier emergencia en vuelo.

Una de las ideas más transformadoras que emerge de esta perspectiva es que la seguridad no puede sostenerse solo con más normas o más tecnología. La seguridad es un acuerdo social que involucra a organizaciones, profesionales, reguladores, medios de comunicación y ciudadanía. Requiere instituciones que valoren el aprendizaje, que comprendan la complejidad del trabajo real, que incentiven la transparencia y que abandonen definitivamente los modelos del castigo automático.

La conversación global avanza en esa dirección. Países, organismos y sectores enteros están revisando sus modelos de investigación de eventos indeseados, incidentes, formación profesional, cultura organizacional y diseño de políticas públicas. América Latina necesita sumarse con fuerza a ese movimiento, porque los desafíos que enfrenta —en salud, transporte, energía, infraestructura y gestión pública— requieren enfoques más humanos, más modernos y científicos. En particular, la Argentina posee una base legal que permite profundizar en la seguridad sistémica tanto en el campo de la salud (Ley Nicolás), como en el transporte (Ley de Seguridad en el Transporte); además de contar con recursos humanos altamente calificados en todas las disciplinas.

Es en este contexto donde surge la necesidad de difundir nuevas ideas, nuevas herramientas y formas de entender el riesgo. Y es justamente aquí es donde la industria, la actividad académica y la sociedad toda necesitan un nuevo acuerdo: la aceptación social del riesgo; un desafío que está por darse a la discusión.

*El autor es investigador, analista de gestión de riesgos y docente universitario. Augusto De Santis se especializó en la Escuela de Ingeniería de Viterbi, Universidad del Sur de California,(EEUU). Fue director nacional de Investigaciones de Accidentes de Aviación Civil de la exJunta de Investigaciones de Accidentes de Aviación Civil (Jiaac), en dos períodos, 2013-2016 y 2019-2020. Actualmente es director del Programa de Gestión de Riesgos en Salud de la Universidad ISalud.

Producción y edición: Miguel Títiro - [email protected]

LAS MAS LEIDAS