Se enfrenta a amenazas ambiguas
por Michael Roberto, Richard M.J. Bohmer, Amy C. Edmondson
El 1 de febrero de 2003, el mundo vio con horror cómo el Columbia El transbordador espacial se rompió al volver a entrar en la atmósfera terrestre y mató a siete astronautas. Una investigación reveló que un trozo grande de espuma aislante se desprendió del tanque externo del transbordador durante el lanzamiento, lo que dañó el borde de ataque del ala y provocó el accidente 16 días después.
Algunos han argumentado que la NASA no respondió con la intensidad adecuada al llamado ataque de espuma durante el Columbia Su última misión era demostrar una gestión irresponsable o incompetente. Sin embargo, nuestra investigación sugiere que la NASA mostraba un patrón de comportamiento natural, aunque desafortunado, común en muchas organizaciones. El ataque con espuma es un buen ejemplo de lo que llamamos una amenaza ambigua, una señal que puede o no presagiar un daño futuro. Algunas amenazas muy importantes son obvias (por ejemplo, el riesgo de un terremoto masivo en algún lugar de California) y la respuesta es clara (las empresas pueden modernizar sus edificios e instalar sistemas de respaldo). Otras veces, la amenaza es obvia, aunque la respuesta adecuada no lo sea (como fue el caso de la aterradora explosión de un tanque de oxígeno a bordo) Apolo 13). Estas amenazas estimulan los esfuerzos intensivos de resolución de problemas. Sin embargo, las situaciones más peligrosas se producen cuando una señal de advertencia es ambigua y el potencial del suceso de causar daño a la empresa no está claro. En estos casos, los gerentes tienden a ignorar o descartar activamente el riesgo y a adoptar una actitud de esperar y ver qué pasa. Este enfoque puede ser catastrófico.
Las situaciones más peligrosas surgen cuando la amenaza es ambigua. Esto lleva a los directivos a ignorar o descartar el riesgo y a adoptar una actitud de esperar y ver qué pasa. Este enfoque puede ser catastrófico.
Cuando se produjo el ataque con espuma, los funcionarios de la NASA que supervisaban el lanzamiento no tenían una línea de visión clara de lo que sucedería como resultado. Los ingenieros se dieron cuenta del impacto de espuma durante las revisiones rutinarias de los vídeos grabados en el lanzamiento (lamentablemente, no desde el mejor ángulo para evaluar los daños), pero los altos directivos restaron importancia a la amenaza y señalaron que los ataques con espuma habían causado daños a los transbordadores en el pasado, pero que nunca habían provocado un accidente grave. Algunos ingenieros preocupados describieron el ataque con espuma como «el mayor de la historia» y pidieron que se tomaran más imágenes de satélite de la zona del ataque, pero los altos directivos rechazaron estas solicitudes. La dirección también decidió no que los astronautas realizaran una caminata espacial, lo que podría haberles permitido observar y quizás incluso reparar los daños.
Los desastres derivados de amenazas ambiguas afectan a organizaciones de todo tipo. Los ejecutivos del gigante farmacéutico Merck juzgaron mal la amenaza para su reputación cuando los primeros datos ambiguos vinculaban su analgésico Vioxx con los riesgos cardiovasculares. Los directivos de Kodak descartaron las señales tempranas y poco claras que presagiaban una caída importante en su negocio cinematográfico, y Schwinn descartó la amenaza de las bicicletas de montaña, que finalmente eclipsaron en popularidad a las bicicletas de carretera de la empresa. Los funcionarios de seguridad nacional de los Estados Unidos, ante una cacofonía de información confusa sobre los planes e intenciones de Al Qaeda, restaron importancia a la amenaza de un ataque terrorista antes del 11 de septiembre de 2001.
Basándose en nuestro estudio exhaustivo de dos años sobre la Columbia desastre, así como nuestras investigaciones de campo y estudios de casos realizados en otros sectores, hemos llegado a la conclusión de que la vigilancia por sí sola no impedirá que las amenazas ambiguas se conviertan en costosos (y a veces trágicos) fracasos. Nuestra investigación sugiere que las organizaciones que desarrollan capacidades sistemáticas para identificar, evaluar y responder a las amenazas ambiguas evitan mucho mejor los problemas graves que las que no lo hacen. Afortunadamente, cada riesgo conlleva lo que denominamos un «período de recuperación» (el período entre la primera señal de un posible problema y un fallo importante) durante el cual uno o más miembros de la organización se dan cuenta de una amenaza. Los períodos de recuperación pueden durar de minutos a meses. Mientras la ventana siga abierta, el resultado adverso aún no es inevitable y la acción preventiva es factible.
Las empresas que hacen un buen trabajo a la hora de hacer frente a las amenazas ambiguas no improvisan durante el período de recuperación, sino que aplican rigurosamente un conjunto de capacidades de detección y respuesta que han desarrollado y practicado de antemano. En este artículo, describimos tres pasos para poner en marcha un proceso disciplinado mucho antes de que se produzca una crisis. En primer lugar, las empresas tienen que perfeccionar sus habilidades rápidas de resolución de problemas y de trabajo en equipo mediante la práctica. En segundo lugar, deben aprender a reconocer y aprovechar los períodos de recuperación durante los que deberían amplificar las amenazas de forma temporal. Esto hace que sea seguro para los empleados hacer preguntas potencialmente desconcertantes de «qué pasaría si». Por último, las empresas deberían animar a las personas a explorar las posibles respuestas a las amenazas mediante experimentos rápidos y de bajo coste.
Restar importancia a las nubes oscuras
¿Por qué las empresas tienen una inclinación natural a malinterpretar las amenazas ambiguas? Los factores en tres niveles (la cognición humana, la dinámica de grupo y la cultura organizacional) interactúan de manera que predisponen a las empresas a responder con una intensidad inferior a la adecuada cuando las señales de un daño futuro son turbias.
Cognición humana.
El primer impedimento para hacer frente a las amenazas ambiguas proviene de los sesgos cognitivos, lo que la académica Roberta Wohlstetter llama nuestro «apego obstinado a las creencias existentes». La mente humana tiende a protegerse del miedo suprimiendo las sutiles percepciones del peligro. Además, tendemos a darnos cuenta y a hacer hincapié en la información que confirma nuestros puntos de vista e hipótesis actuales, al tiempo que descartamos los datos que los contradicen. Esto podría explicar por qué a los gerentes de la NASA les costaba creer que la espuma cayó durante el Columbia El lanzamiento era peligroso. Los ataques con espuma, e incluso los daños que se derivaban de ellos, eran rutinarios durante los lanzamientos de los transbordadores; a pesar de estos ataques, todos los transbordadores lanzados desde 1986 habían regresado sanos y salvos, lo que contribuía a reforzar la creencia de que la caída de espuma no constituía una amenaza real. Con el tiempo, la NASA se esforzó menos por buscar información que pusiera en duda esta conclusión; por ejemplo, no reparó las cámaras defectuosas que grababan los lanzamientos de los transbordadores.
Para empeorar las cosas, ante las pruebas vagas, a menudo aumentamos nuestro compromiso con las líneas de acción existentes, sobre todo cuando hemos invertido mucho tiempo y dinero en ellas. En la NASA, por ejemplo, algunos ingenieros, frustrados por la escasez de datos sobre los efectos de los ataques de espuma en las misiones de los transbordadores, solicitaron imágenes de satélite adicionales durante Columbia es la última misión. Los directivos a los que hicieron la solicitud ya habían aprobado, durante la revisión de la preparación del vuelo, la determinación de que los golpes de espuma no representaban un problema de seguridad. Rechazaron la solicitud de los ingenieros, por lo que las creencias sobre la inocuidad de los golpes con espuma quedaron indiscutidas.
El Dr. David Graham, de la Oficina de Seguridad de los Medicamentos, señaló una dinámica similar en la Administración de Alimentos y Medicamentos de los Estados Unidos durante su testimonio ante el Congreso sobre el Vioxx. En ese momento, el equipo con la autoridad para aprobar un medicamento antes de que saliera al mercado también era responsable de revisar su seguridad una vez que estuviera en las estanterías de las farmacias.
Dinámica de grupo.
La dinámica de grupo perjudica aún más la capacidad de los directivos para hacer frente a amenazas ambiguas. Con demasiada frecuencia, las empresas reúnen a los expertos en equipos ad hoc; no se piensa en diseñar el grupo para un rendimiento óptimo. Un grupo de artistas individuales capaces no constituye necesariamente un grupo de trabajo sólido. Para diseñar un equipo eficaz, los directivos deben prestar atención a la estructura y la composición del grupo, a la designación de las funciones y responsabilidades y a la relación del equipo con otras partes de la organización.
El equipo de evaluación de escombros de la NASA, reunido apresuradamente y después del lanzamiento, el grupo responsable de evaluar el impacto de la espuma, demostró estar mal estructurado y tenía datos limitados con los que trabajar. Sus miembros no tenían experiencia trabajando juntos en problemas críticos y urgentes. El grupo carecía de un estatuto, un presupuesto, una estructura jerárquica y una posición formal bien definidos en la NASA. Intentó funcionar con una estructura de liderazgo de copresidentes incómoda, lo que hizo que algunos miembros se preguntaran quién estaba al mando.
El ambiente de un equipo es tan importante como su diseño. Muchos grupos carecen de un clima de seguridad psicológica; por lo tanto, los miembros no se sienten cómodos planteando preguntas difíciles, expresando puntos de vista disidentes o hablando con franqueza sobre amenazas ambiguas. Los miembros del equipo que llaman la atención sobre esas amenazas son marginados o condenados al ostracismo, quizás incluso ridiculizados como Chicken Littles. Muchas personas de la NASA informaron que la dinámica del grupo no fomentaba una discusión sincera sobre las amenazas. Las transcripciones de las reuniones revelaron que los gerentes no solicitaban activamente puntos de vista disidentes. Las agendas repletas inhibían las discusiones reflexivas sobre las posibles amenazas. Las diferencias jerárquicas y de estatus dificultaban que los ingenieros de nivel inferior expresaran sus preocupaciones.
Por el contrario, las organizaciones sanas fomentan los conflictos constructivos. Los buenos líderes derriban las barreras a la comunicación sincera para que sus organizaciones puedan abordar las amenazas competitivas de forma eficaz. Permiten a los empleados de primera línea hablar con franqueza con sus superiores sobre las señales de posibles problemas. Andy Grove, de Intel, que aprendió la lección en 1994, cuando Intel descartó las señales de advertencia de un defecto en su chip Pentium, describe a las personas que están dispuestas a desafiar la sabiduría convencional y a señalar las posibles amenazas como «casandras útiles».
Cultura organizacional.
A medida que las empresas maduran, sus culturas suelen mostrar dos rasgos que se combinan para silenciar la respuesta a las amenazas ambiguas. Muchas organizaciones, especialmente las científicas, desarrollan una poderosa cultura basada en los datos en la que las conclusiones deben demostrarse con estudios de muestras grandes a niveles estadísticamente significativos. Por sí solo, este atributo cultural no es problemático. Sin embargo, tras años de éxito con una tecnología en particular, una empresa puede quedar atrapada en la presunción de que es sólida. Cuando aparece una amenaza ambigua, las personas preocupadas deben demostrar, mediante investigaciones estadísticamente significativas, que la tecnología no es segura. No hay lugar para preocupaciones intuitivas y datos incompletos. Las posibles amenazas están enterradas en medio de requisitos rígidos de «pruebas científicas».
Cuando los ingenieros de la NASA observaron el impacto inusualmente grande de la espuma, tuvieron el presentimiento de que algo andaba mal, pero carecían de datos suficientes para demostrar que el vehículo no era seguro. Necesitaban información adicional, como imágenes de satélite del ala dañada. Sin embargo, al solicitar las imágenes, carecían de pruebas suficientes para justificar el coste adicional del uso del satélite. En efecto, la alta dirección quería ver datos sólidos para justificar la búsqueda de datos duros. Columbia Roger Tetrault, miembro de la junta de investigación, describió esa circularidad de la siguiente manera: «Demuéstreme que está mal y, si me demuestra que algo va mal, iré a analizarlo». David Graham ha sugerido que los científicos de la FDA se enfrentan a un problema similar cuando intentan argumentar que los medicamentos aparentemente eficaces deberían retirarse del mercado.
El desafío de hacer frente a las amenazas ambiguas se hace más difícil cuando los gerentes enmarcan el trabajo de una organización de manera inapropiada. Una empresa puede adoptar una de dos mentalidades: puede aplicar una mentalidad operativa, abordar el trabajo como una actividad rutinaria, susceptible de un conjunto de procedimientos estandarizados y respaldada por presupuestos y calendarios detallados. Como alternativa, una organización puede adoptar una mentalidad experimental, abordando el trabajo como un esfuerzo de investigación y desarrollo en el que las pruebas, el aprendizaje y la adaptación tienen prioridad sobre la estandarización. En un entorno así, se produce un comportamiento mucho más exploratorio y la gente es consciente del estado impreciso de los conocimientos técnicos.
Las empresas se meten en problemas cuando aplican una mentalidad equivocada a una organización. Los viajes espaciales, como gran parte de la innovación tecnológica, son un esfuerzo fundamentalmente experimental y deben gestionarse de esa manera. Cada nuevo vuelo debe ser una prueba y una fuente de datos importantes, más que una aplicación rutinaria de las prácticas anteriores. Si la NASA hubiera mantenido la mentalidad experimental que imperó en la organización en los años del Apolo, las anomalías como los ataques con espuma podrían haberse considerado importantes oportunidades de aprendizaje. Por desgracia, la NASA se alejó de esta mentalidad en la década de 1970, cuando solicitó financiación del Congreso para el programa de transbordadores. La NASA promocionó el transbordador como una nave espacial reutilizable que reduciría drásticamente el coste de colocar objetos en el espacio. La agencia estimó que el transbordador volaría 50 veces al año. Sheila Widnall, exsecretaria de la Fuerza Aérea y miembro de la Columbia La Junta de Investigación de Accidentes explicó que la NASA vio el transbordador como «un 747 que podía simplemente aterrizar, dar la vuelta y volver a operar». El programa de transbordadores empezó a verse como una actividad rutinaria, más que exploratoria. De acuerdo con un marco operativo más que experimental, la agencia se centró miópicamente en los horarios y en un conjunto rígido de protocolos de comunicación. Investigar una huelga rutinaria de espuma pondría en peligro, según esta mentalidad, los presupuestos y los calendarios.
Los factores cognitivos, la dinámica de grupo y las barreras culturales pueden dificultar que cualquier empresa comprenda una situación poco clara. Al actuar en conjunto, estas fuerzas se combinan y refuerzan unas a otras para crear un potente cóctel que impide responder pronto a una amenaza ambigua.
Dirigiéndose a problemas
Para evitar fallos catastróficos, las organizaciones deben aprender a detectar los períodos de recuperación y mantenerlos abiertos el mayor tiempo posible para tener tiempo suficiente para desarrollar soluciones creativas. Las empresas deben ver los períodos de recuperación como oportunidades para aprender y mejorar, incluso si la amenaza resulta ser benigna. Algunos directivos dirán que demasiadas falsas alarmas se deben a los esfuerzos por levantar las señales de advertencia de forma temprana y frecuente. Sin embargo, nuestras investigaciones muestran que las organizaciones pueden aprender mucho incluso de esas falsas alarmas. Los beneficios de explorar amenazas ambiguas superan con creces los costes, siempre que la empresa haya desarrollado una capacidad disciplinada y de alta velocidad para evaluar las señales de alerta temprana. Poner en marcha esa capacidad es un proceso de tres pasos.
Primer paso: practicar el trabajo en equipo bajo presión.
Las organizaciones no suelen darse el lujo de tomarse su tiempo durante una crisis. El estrés y la ansiedad aumentan a medida que pasa el tiempo hacia un posible fracaso. Por eso las empresas no deben intentar improvisar en medio de un período de recuperación. Cuando el tiempo apremia, unir a varias personas en un equipo y pedirles que encuentren la manera de trabajar juntas de forma eficaz es contraproducente.
Como un período de recuperación exige conductas y reglas de decisión diferentes a las de las operaciones rutinarias, las organizaciones se benefician de ensayar las respuestas a las amenazas. Por supuesto, las empresas no pueden desarrollar planes de contingencia ni practicar respuestas para cada tipo de amenaza que pueda surgir. En cambio, deberían crear capacidades genéricas de ventana de recuperación que puedan aplicarse ante una amplia gama de amenazas, incluidas las que son difíciles de predecir. Al practicar la resolución de problemas con poco tiempo, pero sin amenazas ambiguas, las empresas pueden refinar sus procesos de evaluación de los problemas e inventar soluciones creativas.
El grupo de tecnología de la información de Morgan Stanley practica la respuesta a una variedad de amenazas, como los desastres naturales, el terrorismo o los ataques a su red por parte de piratas informáticos sofisticados, que podrían perjudicar la capacidad de los sistemas de la empresa. Los empleados del aeropuerto Logan de Boston realizan simulacros con regularidad para prepararse para responder a las amenazas terroristas. En una empresa aeroespacial, los directivos utilizan escenarios hipotéticos para descubrir formas de contrarrestar las jugadas competitivas, como fusiones o alianzas entre rivales. Al participar en ensayos generales como estos, los participantes conocen los puntos fuertes y débiles de los demás, y los roles informales quedan claros. Cuando ocurra un desastre, sabrán a quién acudir para realizar un análisis inteligente, quién probablemente propondrá las soluciones más creativas y quién tenderá a reaccionar exageradamente ante el estrés.
¿Qué tan preparado está?
Este diagnóstico puede ayudarlo a determinar si su unidad u organización dedica demasiado tiempo a reaccionar ante las emergencias o si ha creado la capacidad de detectar amenazas
…
Antes del cambio de enfoque de la I+D a las operaciones, la NASA también realizaba simulacros de incendio con regularidad. La respuesta rápida y eficaz del director de vuelo Gene Kranz durante el Apolo 13 la crisis no fue simplemente un acto de brillante improvisación. Había simulado con frecuencia situaciones de crisis con sus equipos bajo la observación de instructores capacitados que buscaban mejorar las habilidades de comunicación y procesamiento de la información de los miembros. Estudió el desempeño de su gente en situaciones estresantes y desarrolló una capacidad organizacional de resolución de problemas mucho antes de que ocurriera el desastre. Cuando el tanque de oxígeno esté encendido Apolo 13 funcionó mal, los equipos estaban preparados a pesar de que nunca habían tenido ese tipo de problemas. En su libro El momento del liderazgo, Michael Useem señala que Kranz utilizó estos ensayos generales para ayudar a los miembros del equipo a aprender a «compensarse unos a otros» y a «comunicar y evaluar los datos» de manera eficiente. Kranz también quería que los miembros del equipo aprendieran a tomar «decisiones nítidas y autoritativas», y que estuvieran dispuestos a «admitir cuando no sabe lo que está pasando y pedir ayuda». El Apolo 13 la historia refuerza la sabiduría de Aristóteles, quien dijo una vez: «La excelencia, entonces, no es un acto, sino un hábito».
Segundo paso: amplificar la señal.
Para contrarrestar las poderosas fuerzas psicológicas que amortiguan las amenazas ambiguas, los líderes necesitan desarrollar procesos para amplificar las señales de advertencia, aunque al principio parezcan inocuas. Las empresas necesitan mecanismos que hagan que abrir una ventana de recuperación sea legítimo, apropiado e incluso bienvenido ante datos incompletos, pero preocupantes. La apertura de la ventana debería iniciar un período breve pero intenso de intensificación de la investigación, la experimentación y la resolución de problemas, en el que las personas se sientan libres de hacer preguntas incómodas sobre la posible amenaza. Durante este período, los empleados deben poder explorar la importancia de las observaciones aberrantes sin miedo a represalias en caso de que la amenaza resulte inofensiva.
Considere cómo los hospitales descubrieron un proceso para amplificar y explorar las posibles amenazas para los pacientes. Cuando el corazón de un paciente sufría inesperadamente un paro cardíaco, los hospitales emitían un «código azul», una alerta que hacía que un equipo de reanimación especializado entrara en acción. Pero las investigaciones mostraron que los miembros del personal observaban a menudo que el estado del paciente se había deteriorado durante varias horas antes de la alerta de código azul. Varias señales de alerta temprana, como los cambios agudos en la frecuencia respiratoria o la saturación de oxígeno, tendían a preceder a la depresión codificada, y estas señales no eran específicas de las dolencias subyacentes por las que los pacientes estaban siendo tratados. En algunos casos, estos cambios eran cuantificables. En otros casos, los enfermeros pueden simplemente darse cuenta de un cambio cualitativo en la apariencia, la capacidad cognitiva o el comportamiento del paciente. Básicamente, se descubrió que existía un período de recuperación entre el momento en que aparecieron los primeros signos de deterioro y el inicio del paro cardíaco, pero los miembros del personal a menudo no lo aprovechaban.
Muchos hospitales ahora crean listas de señales de alerta temprana y permiten a los enfermeros llamar a un equipo de respuesta rápida, compuesto por personas que no son médicos, como enfermeros de cuidados intensivos y terapeutas respiratorios con experiencia, para ayudarlos a evaluar la importancia de las amenazas ambiguas. Estos equipos saben cómo determinar rápidamente si una señal de advertencia merece más medidas. Son tan expertos en el diagnóstico rápido y la resolución de problemas como en cualquier disciplina médica en particular; su trabajo consiste en determinar si se necesita un especialista. Este proceso de respuesta rápida hace que los enfermeros sin experiencia puedan alzar la voz cuando algo no va bien. Algunos hospitales, como el Baptist Memorial de Memphis (Tennessee), han registrado una disminución drástica en el número de códigos azules tras la creación de equipos de respuesta rápida. También informan de que de este proceso han surgido muchas otras ideas de mejora, incluso en los casos en que las amenazas no resultaron ser importantes.
Otras organizaciones han empleado sistemas de información para aumentar su sensibilidad ante las amenazas ambiguas y buscarlas activamente. Electricité de France, que opera 57 centrales nucleares, rastrea cada instalación en busca de cualquier cosa, incluso un poco fuera de lo común. Ha desarrollado un sistema para detectar anomalías (las barras de control tardan un poco más de lo habitual en caer, por ejemplo) y para enviar la información a los operadores. La gigantesca firma de servicios financieros Fidelity Investments demostró que el mismo enfoque puede aplicarse en un contexto muy diferente. La empresa cambió la configuración de su sistema de control de procesos estadísticos para reducir deliberadamente el umbral de identificación de los posibles problemas de calidad, como la brecha entre la rentabilidad esperada y la real de un instrumento financiero en particular en un período determinado. Esto significaba que la empresa estaba investigando desviaciones que aún no constituían problemas, pero que, no obstante, podían resultar instructivas para el aprendizaje. Al hacerlo, Fidelity practicó la respuesta a amenazas ambiguas y fomentó la mejora continua de sus operaciones de servicio.
Paso tres: Experimento.
Evaluar las amenazas ambiguas a menudo requiere una experimentación rápida. Sin embargo, las organizaciones deben tener mucho cuidado de no confiar únicamente en las pruebas de hipótesis estándar. Cuando se avecina una posible catástrofe, los experimentos científicos formales pueden requerir demasiado tiempo o demasiados recursos valiosos. Por lo tanto, muchas empresas pueden beneficiarse de una experimentación exploratoria menos formal.
Cuando se avecina una posible catástrofe, los experimentos científicos formales pueden requerir demasiado tiempo.
En su libro Aprender en acción, El profesor de la Escuela de Negocios de Harvard, David Garvin, explica que los experimentos exploratorios son creativos e iterativos y que «están diseñados para el descubrimiento, ‘para ver qué pasaría si’». Los investigadores recopilan e interpretan los comentarios con rapidez y, a continuación, diseñan nuevos ensayos. Los experimentos exploratorios pueden adoptar la forma de prototipos rápidos y bastante aproximados de un nuevo producto. Por ejemplo, Electronic Arts investiga si a los consumidores les puede gustar o no una función de videojuego en particular mediante la creación de prototipos sencillos. Esos prototipos no imitan todo el juego, sino solo la parte de la experiencia de juego para la que se desean comentarios. Dado el inmenso coste del desarrollo de videojuegos y la baja probabilidad de que un proyecto de desarrollo en particular dé éxito, una «minicreación de prototipos» tan centrada permite a Electronic Arts investigar los posibles problemas de forma más rápida y económica que muchos rivales.
Para otras firmas, los experimentos exploratorios implican «estresar» a una parte de la organización y observar cómo reacciona. Los minoristas suelen utilizar a los compradores misteriosos para llamar la atención sobre un tema en particular que puede indicar un problema mayor y más grave en las tiendas de la cadena. Una señalización confusa, por ejemplo, puede provocar que los clientes abandonen la tienda frustrados sin comprar nada y quizás comiencen a frecuentar los puntos de venta de la competencia. Por supuesto, que un cliente abandone una tienda no es una amenaza para el negocio. Sin embargo, un gran número de clientes que abandonan un gran número de puntos de venta de una cadena debido a errores similares que se pueden evitar podría provocar una caída significativa de la cuota de mercado. A un comprador misterioso se le puede pedir que repita esa respuesta de un cliente en varias tiendas, poniendo el mismo arruga a una serie de asociados de la tienda para ver cómo responden. De esa manera, el minorista puede saber si tiene un problema grave y sistémico. La empresa también podría enterarse de que algunas tiendas, sin que la oficina corporativa lo sepa, han ideado una forma creativa de abordarlo.
El Columbia La investigación demostró lo fácil que puede ser emplear experimentos exploratorios. Columbia James Hallock, miembro de la Junta de Investigación de Accidentes, al utilizar nada más que un lápiz número 2 y un sello postal para demostrar su razonamiento, descubrió que las especificaciones formales no exigían que el borde de ataque del transbordador resistiera más que un pequeño impacto de un objeto extraño. Los resultados de Hallock sugerían que la superficie era mucho más vulnerable a los daños causados por la espuma de lo que muchos funcionarios de la NASA creían. Douglas Osheroff, miembro de la junta, también llevó a cabo un burdo experimento en la cocina de su casa para demostrar por qué se producía la caída de espuma, una pregunta que había dejado perpleja a la NASA durante años. Estos ejemplos muestran cómo la experimentación simple, rápida y de bajo coste puede tener un gran valor informativo en un período de recuperación urgente. • • •
Los tres pasos de practicar, amplificar la señal y experimentar ayudan a la organización a aprender a operar de forma eficaz cuando surge una amenaza importante. Además, cada período de recuperación es un importante simulacro en vivo que ayuda a desarrollar las habilidades y rutinas de aprendizaje fundamentales de la organización. Durante los períodos de recuperación, las personas adquieren experiencia alzando la voz, resolviendo problemas y separando las señales importantes del ruido.
Más importante aún, estas experiencias de aprendizaje intermitentes e intensas pueden desatar las semillas de un cambio cultural. Al fomentar una cultura que tolere la disidencia y que cuestione las suposiciones subyacentes, los simulacros episódicos mejoran la capacidad de la organización para tomar decisiones de alto riesgo. Es probable que este cambio cultural se produzca despacio, paso a paso, incidente por incidente. Cada experiencia de equipos e individuos que trabajan juntos de forma eficaz durante un período de recuperación, en lugar de desgastarse unos a otros y desperdiciar recursos, puede crear una organización de aprendizaje más exitosa.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.