Sistemas complejos en sistemas complicados
Es necesario establecer la diferencia semántica entre un “sistema complejo” y un “sistema complicado”.
Me gusta este ejemplo: la llave del coche es simple, el coche es complejo, el tráfico es complicado.
Un sistema complejo, como el coche, tendrá un rendimiento que dependerá del buen funcionamiento de todos sus componentes, pero también: de la habilidad de su conductor, el estado de la carretera y las características del tráfico en donde está circulando.
¿Qué relevancia tiene establecer esta diferenciación? Pensar sobre cómo actuar mejor.
«Lo posible adyacente es una especie de futuro borroso, que asoma por el borde del estado actual de las cosas, un mapa de todos los caminos que puede tomar el presente para reinventarse. Pero no es un espacio infinito, ni un campo de juego totalmente abierto. (…) Lo posible adyacente nos dice que, en cualquier momento dado, el mundo es capaz de experimentar cambios extraordinarios, pero que sólo pueden suceder ciertos cambios» (Steven Johnson)
Lo primero es evitar sentir el agobio que estamos en un mundo complicado; porque podría ser que estemos en un “sistema complejo”, donde existen muchos factores que podemos controlar directamente, a diferencia de lo que ocurre en los sistemas complicados en donde intervienen una gran cantidad de factores que están afuera de nuestro área de control directo.
Y por otro lado, al saber diferenciar cuáles son cada una de las partes que integran los sistemas complejos, será más simple anticipar: cuáles son los peligros que algo falle y afecte a todo el sistema.
Cabe la esperanza que si aprendemos a conducir bien nuestro coche, reduciremos los factores de riesgo que, en la complejidad del tráfico, pueden provocar un desastre del que podríamos ser víctimas.
No podemos controlar lo que hacen los otros conductores de los coches que vienen de frente y de quienes están transitando en nuestra misma dirección, pero podemos predecir qué es lo que puede ocurrir, y como nos puede perjudicar, si alguno de esos conductores hace una maniobra equivocada o algo falla en el sistema de sus respectivos coches.
Existe una capacidad para prever las posibles dificultades en el futuro, a la que se denomina: “imaginación necesaria”. Obviamente, la capacidad de predicción de las dificultades que pueden ocurrir en el funcionamiento de un sistema complejo, en un contexto complicado, es directamente proporcional a la magnitud de la experiencia generada durante la práctica profesional (del ingeniero, del médico, del economista, del empresario, etc).
Pero también es “la experiencia”, sobre todo en el diseño de equipos y en la gestión de procesos, los que alientan a los más veteranos a construir sistemas adaptativos que se suponen capaces de prevenir las fallas y anteponer respuestas automáticas correctivas mediante sensores, controles, interruptores, etc., cuando se verifica un desvío en alguna de las normas establecidas.
La historia está llena de ejemplos, de grandes desastres (todos pudieron ser evitados), de factores que se anticiparon, o evadieron, o saltaron a los sistemas adaptativos de respuesta preventiva automática. Un operador, puede apagar un sistema de alarma, o no avisar que algo está ocurriendo mal. Entonces: deviene el desastre.
Enfrentado a la “imaginación necesaria” para prever desastres en los sistemas, existe la “tolerancia al riesgo”. Opera, relajando paulatinamente el criterio de seguridad (“si no ha pasado nada hasta este límite, vayamos un poco más allá”) hasta que se cruzan las líneas de la trayectoria de los eventos con la de los riesgos asumidos acumulativamente.
Cuando la compensación que ejercen los controles, es superada por la descompensación de los factores de riesgo: el sistema se desequilibra en una magnitud que a veces no es retráctil; en consecuencia, todo el sistema se corrompe y deforma.
El incidente emergente que provoca la falla puede ser prevenido en la medida que las personas que diseñan, controlan y participan en los sistemas (sean negocios, construcciones, la salud, la educación, incluso el ocio) se acostumbren a predecir las condiciones (no sólo los factores) de riesgo en la complejidad en donde se desempeñan sus sistemas complejos, y que no confundan una cosa con la otra: las “condiciones” están integradas por varios factores, algunos independientes entre sí y otros estrechamente vinculados.
Una bombilla (lamparita) en un tablero de control que deja de funcionar es un factor que puede o no depender de sí mismo: ¿se quemó o se arruinó lo que lo conecta al sistema eléctrico que alimenta al tablero?
¿Cuántas señales deben tener cada señal de un tablero de control para saber si cada una de ellas está funcionando correctamente?
La confianza que cimienta la “tolerancia al riesgo” provoca que dejemos de prestar atención a muchas señales débiles que, en su conjunto, podrían servir para prevenir un desastre inminente. Imagine un péndulo. Cuando más lo lleve hacia el lado de la seguridad que “nada malo pasará”, el ángulo de retorno hacia el lado del peligro será más pronunciado.
El peligro de un fracaso no sólo depende de lo que puede fallar. También depende de nuestra falta de anticipación.