¿Quiere fomentar la resiliencia? Elimine la complejidad
por Andrew Zolli
Este mes de julio, oficiales de aviación publicó su informe final en uno de los los episodios más desconcertantes y sombríos en la historia de la aviación francesa: el accidente en 2009 del vuelo 447 de Air France, cuando se dirigía de Río de Janeiro a París. El avión se desplomó misteriosamente desde una altitud de treinta y cinco mil pies durante tres minutos y medio, antes de chocar explosivamente con las vastas aguas de dos millas de profundidad del Atlántico sur. Doscientas veintiocho personas perdieron la vida; pasaron casi dos años y el ayuda de sondas robóticas del Instituto Oceanográfico de Woods Hole para encontrar los restos. El mar se los había tragado enteros.
¿Qué —o quién— tenía la culpa? Los investigadores franceses identificaron muchos factores, pero identificaron a un culpable muy común: error humano. Su informe reveló que los pilotos, aunque estaban bien entrenados, habían diagnosticado muy mal las razones por las que el avión se había quedado estancado y que sus errores posteriores, basados en este error inicial, condujeron directamente a la catástrofe.
Sin embargo, fue la complejidad, tanto como cualquier factor, lo que condenó al fracaso el vuelo 447. Antes del accidente, el avión había atravesado una serie de tormentas que provocaron una acumulación de hielo que inutilizó varios de sus sensores de velocidad aerodinámica, un fallo moderado, pero no catastrófico. Como medida de seguridad, el piloto automático se desactiva automáticamente y devuelve el control a los pilotos humanos y les envía una críptica alerta de «datos no válidos» que revela poco sobre el problema subyacente. Ante esta ambigüedad, los pilotos parecen haber vuelto a los procedimientos de entrenamiento de memoria que probablemente empeoraron la situación: se inclinaron hacia una subida diseñada para evitar mayores peligros, lo que también redujo la velocidad aerodinámica del avión y lo detuvo.
De manera confusa, en el punto álgido del peligro, una alarma a todo volumen en la cabina que indicaba que la cabina se había quedado en silencio, lo que sugería exactamente lo contrario de lo que estaba sucediendo realmente. La grabadora de voz de la cabina del avión capturó la última grabación de los pilotos, intercambio desconcertado:
(Piloto 1) Maldita sea, nos vamos a estrellar… ¡Esto no puede estar pasando!
(Piloto 2) Pero qué es¿está sucediendo?
Menos de dos segundos después, estaban muertos.
Los investigadores encuentran ecos de esta historia en otros contextos todo el tiempo, circunstancias en las que añadir mejoras de seguridad a los sistemas en realidad hace que las situaciones de crisis sean más peligrosas, no menos. Las razones tienen su origen en parte en la naturaleza perniciosa de la complejidad y, en parte, en la forma en que los seres humanos responden psicológicamente al riesgo.
Añadimos, con razón, sistemas de seguridad a cosas como aviones y plataformas petrolíferas, y cubrimos las apuestas de los principales bancos, en un esfuerzo por alentarlos a funcionar de forma segura y cada vez más eficiente. Sin embargo, cada uno de estos elementos de seguridad también aumenta la complejidad del conjunto. Añada suficientes y pronto estas características, que de otro modo serían beneficiosas, se convertirán en posibles fuentes de riesgo en sí mismas, a medida que el número de posibles interacciones, tanto anticipadas como imprevistas, entre los distintos componentes se hace incomprensiblemente grande.
Esto, a su vez, amplifica la incertidumbre cuando las cosas van mal, lo que dificulta la corrección de las crisis. ¿Esa alerta intermitente indica una emergencia genuina? ¿Es una falsa alarma? ¿O es el resultado de una interacción compleja que nadie ha visto antes? Imagínese enfrentarse a una docena de alertas de este tipo simultáneamente y tener que decidir qué es verdadero y qué es falso de todas ellas al mismo tiempo. Imagine además que, si elige mal, llevará al sistema a una catástrofe irrecuperable. Ahora, espere unos segundos para tomar la decisión correcta. ¿Cuánto se le debe culpar si hace la equivocada?
Científico de sistemas de CalTech John Doyle ha acuñado un término para esos sistemas: los llama Robusto pero frágil — y una de sus características distintivas es que son buenas para hacer frente a las amenazas anticipadas, pero pésimas para hacer frente a las imprevistas. A medida que aumenta la complejidad de estos sistemas, aumentan tanto las fuentes como la gravedad de las posibles interrupciones, incluso a medida que disminuye el tamaño necesario para los posibles «eventos desencadenantes»; solo se necesita un suceso pequeño, en el lugar o el momento equivocados, para provocar una calamidad.
Las variaciones de este «riesgo de complejidad» contribuyeron al reciente fiasco multimillonario de cobertura de JP Morgan, así como al desafío de reactivar la economía estadounidense tras la crisis financiera de 2008. (Algunos de los contratos de derivados que los bancos habían firmado anteriormente entre sí tenían hasta un millón de páginas, lo que los hacía incomprensibles. Desentrañar el riesgo de contraparte resultante (determinar quién estaba en apuros con quién) se hizo prácticamente imposible. Esto, a su vez, hizo que acumular dinero, no prestarlo, fuera lo más sensato que podían hacer los bancos tras la crisis.)
La complejidad es un peligro claro y presente tanto para las empresas como para el sistema financiero mundial: hace que ambas sean mucho más difíciles de gestionar, gobernar, auditar, regular y apoyar eficazmente en tiempos de crisis. Sin reducir la complejidad, una mayor transparencia y una divulgación más completa no necesariamente ayudan y, de hecho, podrían perjudicar: hacer que muchos datos sin procesar estén disponibles solo hace que haya un montón de heno más grande en el que tratar de encontrar la aguja.
Lamentablemente, las respuestas psicológicas de los seres humanos al riesgo suelen empeorar la situación, a través de fenómenos gemelos llamados compensación del riesgo y homeostasis del riesgo. De forma contraria a la intuición, a medida que añadimos funciones de seguridad a un sistema, las personas suelen cambiar su comportamiento para actuar de una manera más arriesgada y apuestan (a menudo inconscientemente) a que el sistema podrá salvarlas. Las personas que llevan el cinturón de seguridad en los coches con airbags y frenos antibloqueo conducen más rápido que las que no lo hacen, porque se sienten más protegidas, mientras comen y envían mensajes de texto y Dios sabe qué más. Y no solo ajustamos la percepción de nuestra propia seguridad, sino también de la de los demás: por ejemplo, se ha descubierto que los automovilistas pasar más cerca de los ciclistas llevar cascos que los que no, apostar (incorrectamente) a que los cascos hacen que los ciclistas estén más seguros de lo que realmente lo hacen.
Un concepto relacionado, homeostasis del riesgo, sugiere que, al igual que un termostato, cada uno de nosotros tiene un nivel interno preferido de tolerancia al riesgo. Si se bloquea una forma de expresar el apetito innato por el riesgo, encontraremos otra. En el buceo, este fenómeno dio lugar, a la famosa regla #2 de Booth, que establece que «cuanto más seguro sea el equipo de paracaidismo, más posibilidades tendrán los paracaidistas para mantener constante la tasa de mortalidad».
Las organizaciones también tienen una medida de la homeostasis del riesgo, que se expresa a través de su cultura.
Las personas que, por naturaleza, son más reacias al riesgo o más tolerantes al riesgo que la cultura de sus organizaciones se ven presionadas, a menudo de forma encubierta, para que «hagan cola» o «hagan las maletas».
Esto quedó bien demostrado en BP, por ejemplo, mucho antes de su devastador derrame en el Golfo. De hecho, la empresa tuvo un accidente grave en algún lugar del mundo aproximadamente cada dos años durante una década antes de la catástrofe de Deep Water Horizon. Durante ese período, la dirección ejecutiva de BP consideró que las multas y amonestaciones de los gobiernos eran el coste del crecimiento en el mundo de la extracción de energía, con mucho en juego, y esta aceptación envió una poderosa señal a las bases. Según exempleados de la empresa, los directivos de nivel inferior de BP, en cambio, se centraban excesivamente en cosas como los peligros de no tapar una taza de café, en lugar del riesgo y los gastos de tapar un pozo con un material de calidad inferior.
Combine sistemas complejos y robustos pero frágiles, una psique humana que compensa el riesgo y culturas organizativas homeostáticas del riesgo, e inevitablemente se producen catástrofes de todo tipo: crisis económicas, crisis económicas y cosas por el estilo. Esa observación está despertando cada vez más interés en el nuevo campo de la resiliencia: cómo crear sistemas que puedan adaptarse mejor a las interrupciones cuando se producen inevitablemente. Y, así como las vulnerabilidades se originan en la interacción de la complejidad, la psicología y la cultura organizacional, ahí también residen las claves para una mayor resiliencia.
Considere el problema de la complejidad y la regulación financiera. Los elementos de Dodd-Frank que se han escrito hasta ahora han suscitado desprecio en algunos sectores por hacer poco con respecto al problema de los bancos demasiado grandes para quebrar; pero han hecho aún menos con respecto al problema más grave de las instituciones demasiado complejas de gestionar, sin mencionar la complejidad del sistema en su conjunto.
Los defensores de los bancos se apresuran a señalar que muchas de las nuevas regulaciones son contradictorias, confusas y, de hecho, empeoran las cosas, y tienen razón: añadir una regulación demasiado compleja a un sistema financiero demasiado complejo podría ponernos a todos, en la próxima crisis, en la cabina de un avión condenado al fracaso.
Pero aquí hay una gran y obvia ganga que explorar: fomentar la reducción de la complejidad tanto de las empresas como del sistema financiero en su conjunto, a cambio de reducir el número y la complejidad de las normas que los bancos tienen que cumplir. En otras palabras, un sistema más simple, pero menos sobrerregulado, que estaría más en línea con su propósito original. Un sistema así sería más fácil de vigilar y más difícil de jugar.
Los esfuerzos de simplificación también tienen que abordar urgentemente el problema de la densa sobreconexión: el creciente y demasiado estrecho «acoplamiento» entre las empresas y entre los centros y centros financieros internacionales. En 2006, la Reserva Federal invitó a un grupo de investigadores a estudiar las conexiones entre los bancos de analizar los datos del sistema Fedwire, que los bancos utilizan para respaldarse mutuamente. Lo que descubrieron fue impactante: solo sesenta y seis bancos, de un total de miles, representaron el 75 por ciento de todas las transferencias. Y veinticinco de ellas estaban completamente interconectadas entre sí, incluida una firma de la que quizás haya oído hablar llamada Lehman Brothers.
Se ha hecho poco con respecto a esta densa sobreconexión estructural desde la crisis, y lo que ocurre en el núcleo del sector financiero también lo es a nivel internacional. Durante las últimas dos décadas, los vínculos entre centros financieros como Londres, Nueva York y Hong Kong han crecido al menos seis veces. Al volver a introducir la sencillez y la modularidad en el sistema, una crisis en algún lugar no siempre tiene por qué convertirse en una crisis en todas partes.
Sin embargo, sea cual sea el contexto, tomar medidas para controlar la complejidad de un sistema no tiene sentido sin abordar también los incentivos y la cultura, ya que las personas inevitablemente conducirán un automóvil más seguro de forma más peligrosa. Para abordar esto, las organizaciones deben aprender a mejorar la «diversidad cognitiva» de sus personas y equipos, haciendo que las personas piensen de manera más amplia y diversa sobre los sistemas en los que habitan. Uno de los pioneros de este esfuerzo es, contrariamente a la intuición, el Ejército de los Estados Unidos.
Las fuerzas armadas actuales se enfrentan a circunstancias de enorme ambigüedad (teatros de operaciones con muchos tipos diferentes de actores). Tanto las ONG, los civiles, los socios, las organizaciones de medios de comunicación, los líderes civiles, los refugiados y los insurgentes se mezclan, sin una «primera línea». En un entorno así, los matices culturales de cada interacción son importantes, y las posibilidades de que se malinterpreten las señales son extremadamente altas. Ante tanta complejidad, puede resultar muy tentador para grupos muy unidos de soldados recurrir al entrenamiento de memoria, lo que puede significar hacer estallar cosas y matar gente. Cometer un tipo de error puede hacer que lo maten, cometer otro podría prolongar la guerra.
Para combatir esto, el coronel retirado del ejército Greg Fontenot y sus colegas de Fort Leavenworth (Kansas) crearon la Universidad de Estudios Militares y Culturales Extranjeros, más conocida por su apodo de Red Team University. La escuela es el centro de un esfuerzo por formar a «defensores del diablo» militares profesionales, agentes de campo que llevan el pensamiento crítico al campo de batalla y ayudan a los oficiales al mando a evitar los peligros del exceso de confianza, la fragilidad estratégica y el pensamiento grupal. El objetivo es ayudar con respeto a los líderes en situaciones complejas a descubrir suposiciones no comprobadas, a considerar interpretaciones alternativas y a «pensar como los demás» sin socavar la cohesión o la moral de la unidad y, al mismo tiempo, conservar sus valores.
Más de 300 de estos escépticos profesionales se han graduado desde entonces en el programa y se han extendido en las filas del Ejército. Sus efectos han sido transformadores, no solo han dado forma a una amplia gama de decisiones y tácticas, sino que también han difundido una forma de cambio cultural apropiada tanto para la institución como para los tiempos complejos en los que ahora lucha y mantiene la paz.
Los esfuerzos de simplificación estructural y cambio cultural como estos nunca eliminarán todas las sorpresas, por supuesto, pero si se emprenden juntos podrían garantizar una mayor resiliencia —para todos— después.
De lo contrario, como los pilotos del vuelo 447, volamos a ciegas.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.