Toma de decisiones: avanzar a la inversa
por Hillel J. Einhorn, Robin M. Hogarth
Los gerentes ocupados analizan muchas situaciones y toman cientos de decisiones todos los días. ¿Por qué, por ejemplo, las ventas suben en una ciudad pero bajan en otra? ¿Una inversión en nuevos equipos implicaría un aumento de la productividad o una mayor confusión? ¿Es un buen momento para buscar un socio en una empresa conjunta o es mejor esperar? Sin embargo, rara vez nos detenemos a pensar en cómo pensamos. Cada decisión es el resultado de un proceso complejo que normalmente implica dos tipos diferentes de pensamiento: mirar hacia atrás para entender el pasado y mirar hacia adelante para predecir el futuro.
Pensar hacia atrás es en gran medida intuitivo y sugerente; tiende a ser diagnóstico y requiere juicio. Implica buscar patrones, establecer vínculos entre eventos aparentemente desconectados, poner a prueba las posibles cadenas de causalidad para explicar un hecho y encontrar una metáfora o una teoría que ayude a mirar hacia el futuro.
Pensar en el futuro es diferente. En lugar de la intuición, depende de un tipo de formulación matemática: el responsable de la toma de decisiones debe reunir y sopesar una serie de variables y, a continuación, hacer una predicción. Mediante una estrategia o una regla, evaluando la precisión de cada factor y combinando todos los datos, el responsable de la toma de decisiones obtiene una previsión única e integrada.
Aunque los directivos utilizan ambos tipos de pensamiento todo el tiempo, a menudo desconocen las diferencias. Además, esta falta de conciencia hace que los responsables de la toma de decisiones caigan en trampas mentales que conducen a malas decisiones. Al entender cómo pensar hacia atrás y hacia adelante, podemos reconocer estas trampas y mejorar nuestras decisiones.
Pensar al revés
Para entender cómo funciona pensar hacia atrás, piense en los días de los habitantes de las cavernas y considere el siguiente ejercicio de evaluación de la causa y el efecto. Imagine que pertenece a una tribu sofisticada en metodología pero primitiva en la ciencia. Su tribu tiene muy pocos conocimientos de biología, física o química, pero tiene un problema muy grande: una disminución alarmante de la tasa de natalidad. El problema es tan grave que el estadístico de la tribu estima que, a menos que pueda invertir la tendencia pronto, la tribu se extinguirá.
Para responder a la crisis, el director lanza urgentemente un proyecto para determinar la causa del nacimiento. Como miembro del equipo de proyecto al que se le ha asignado la tarea de vincular la causa y el efecto, se le ha asegurado que se le permitirá cualquier forma de experimentación, incluido el uso de miembros de su tribu, para resolver este problema crítico.
La primera pregunta, por supuesto, es qué se considera un factor causal relevante. Al buscar una relación entre la causa y el efecto, la mayoría de las personas suelen centrarse primero en algún hecho o afección inusual o notable que haya precedido al efecto. En este caso, podría preguntarse si ocurrió algo inusual antes de la disminución del número de nacimientos. Podría buscar pruebas de la causa del problema que sean similares de alguna manera al resultado, similares de alguna manera física o metafórica. Entonces podría evaluar la probabilidad de que las pruebas expliquen el problema.
Se habrá dado cuenta de que los niños de su tribu son similares en apariencia a los hombres y mujeres que viven juntos. Esta similitud podría llevarlo a un salto de intuición hacia atrás: las relaciones sexuales provocan un embarazo. Sin embargo, usted y los miembros de su equipo de estudio probablemente reconozcan que esta teoría no está probada, de hecho, no tiene fundamento. En primer lugar, hay una gran brecha entre la causa y el efecto, nueve meses, para ser exactos. En segundo lugar, no conoce la secuencia de los procesos biológicos que unen las relaciones sexuales y el embarazo, ni conoce la cadena causal. En tercer lugar, la causa y el efecto son muy diferentes en cuanto a escala y duración. Y en cuarto lugar, es difícil descartar muchos otros factores que pueden estar relacionados con las relaciones sexuales, por ejemplo, sentarse bajo una palmera y tomarse de la mano a la luz de la luna llena (una explicación que se dio una vez en una carta dirigida a «Querida Abby»).
Solo hay una manera de resolver la cuestión y salvar a la tribu de la extinción: realizar un experimento. De una muestra de 200 parejas, asigna 100 a la prueba de relaciones sexuales y 100 a la prueba de no tener relaciones sexuales. Después de un tiempo, obtiene los siguientes resultados: de las 100 parejas asignadas a la prueba de relaciones sexuales, 20 quedaron embarazadas y 80 no; de las 100 asignadas a la prueba de no tener relaciones sexuales, 5 quedaron embarazadas y 95 no. (Estos cinco embarazos representan un error de medición bastante típico en estos datos y pueden explicarse por los problemas de memoria, las mentiras y la fragilidad humana).
Con los resultados en la mano, calcula la correlación entre las relaciones sexuales y el embarazo y descubre que es de 0,34. Como esta correlación es modesta, llega a la conclusión de que las relaciones sexuales no son un factor importante que provoque el embarazo. Descarta su teoría sin fundamento y busca otra solución. Después de todo, ¿podría haber algo en esa teoría de las palmeras?
Tres pasos atrás
Este ejemplo ilustra las tres fases interrelacionadas de pensar hacia atrás: encontrar variables relevantes, vincularlas en una cadena causal y evaluar la plausibilidad de la cadena.
La búsqueda de una explicación comienza a menudo cuando nos damos cuenta de que algo es diferente, inusual o malo. Por lo general, se necesita un suceso inesperado para despertar nuestra curiosidad. Rara vez nos interesa saber por qué nos sentimos «normales» o por qué el tráfico fluye «con normalidad». En el caso de los habitantes de nuestras cavernas, la disminución de la tasa de natalidad es a la vez inusual y amenazante y, por lo tanto, estimula la adopción de medidas correctivas.
El siguiente paso es buscar algún factor causal relevante, centrarse en algún suceso anormal que se parezca a un resultado inusual de varias maneras: puede ser similar en la escala, en la duración o en el momento en que ocurre. La mayoría de las personas tienen la idea de que causas similares tienen efectos similares. Por ejemplo, según la «doctrina de las firmas», adoptada en los primeros tiempos de la medicina occidental, las enfermedades las causan o curan sustancias que se parecen físicamente a ellas. Por lo tanto, la cura para la ictericia sería el amarillo, etc. Por extraño que parezca, también es difícil imaginarse cómo podríamos buscar variables sin buscar algún tipo de similitud entre la causa y el efecto.
La búsqueda de similitudes a menudo implica analogía y metáfora. Al tratar de entender cómo funciona el cerebro, por ejemplo, podemos imaginarlo como un ordenador, un músculo o una esponja. Cada metáfora sugiere una forma diferente de representar los procesos del cerebro. Un ordenador sugiere la entrada, el almacenamiento, la recuperación y el cálculo de la información. Un músculo sugiere aumentar la potencia mediante el uso y la pérdida de fuerza debido a la atrofia o la tensión por el uso excesivo. Una esponja sugiere la absorción pasiva de la información. La metáfora que elijamos para describir el cerebro —o para entender cualquier relación entre la causa y el efecto— es fundamental, ya que dirige la atención a una forma de pensar.
La búsqueda de variables causalmente relevantes va de la mano con la consideración de indicadores, o «señales de causalidad», que sugieren alguna relación probable entre la causa y el efecto. Hay cuatro categorías de señales: orden temporal (las causas ocurren antes que los efectos), proximidad (las causas suelen estar cerca de los efectos en el tiempo y el espacio), correlación (las causas tienden a variar según los efectos) y similitud (las causas pueden parecerse a los efectos por analogía y metáfora o en longitud y fuerza).
Estas señales de causalidad no demuestran necesariamente una relación entre la causa y el efecto. Sin embargo, indican las posibles direcciones en las que buscar las variables relevantes y limitan el número de escenarios o cadenas que se pueden construir entre las posibles causas y sus supuestos efectos.
¿Qué probabilidades hay, por ejemplo, de que las manchas solares provoquen cambios de precios en el mercado de valores? Antes de que descarte esta hipótesis por absurda, tenga en cuenta que el eminente economista del siglo XIX William Stanley Jevons creía en esa relación. Para establecer este eslabón, tiene que construir una cadena causal que cumpla con varias restricciones. A modo de debate, supongamos que en un momento determinado se produjeron algunas manchas solares antes de los cambios de precios (el orden temporal es correcto); que cuando el Sol tenía actividad de manchas solares, hubo muchos cambios de precios (la correlación es positiva); y que estos cambios de precios se produjeron seis meses después de la actividad de las manchas solares (la proximidad en el tiempo no es muy cercana). La tarea consiste en cerrar el desfase temporal y la distancia entre las manchas solares y los cambios de precios. Si no puede hacerlo, no puede probar una relación causal.
Pensemos ahora en la siguiente cadena: las manchas solares afectan a las condiciones meteorológicas, que afectan a la producción agrícola, que afectan a las condiciones económicas, que afectan a los beneficios, que afectan a los precios de las acciones. Las señales de la causalidad limitan las posibles cadenas que puede imaginar. Esta restricción es especialmente importante para evaluar la señal del orden temporal: para que un suceso provoque otro, debe precederlo. Pero las señales de proximidad en el tiempo y el espacio, de la congruencia y de la longitud y la fuerza de la causa y el efecto también limitan la relación. La manera de cerrar las brechas espaciales y temporales entre las manchas solares y los cambios en el mercado de valores es buscar un cambio en el clima.
Sin embargo, imagine que los cambios en los precios se producen inmediatamente después de la actividad de las manchas solares y no seis meses después. La proximidad temporal entre los dos eventos elimina la relación entre el clima y estas condiciones económicas, lo que requiere un retraso temporal. Para vincular las manchas solares y los cambios de precios, tendría que idear otro escenario que supere la prueba de proximidad en el tiempo.
Otra prueba que sugieren las señales de causalidad es la incongruencia, es decir, causas pequeñas que producen grandes efectos o causas grandes que producen efectos pequeños. Para tener en cuenta estas aparentes discrepancias, la cadena causal debe implicar algún tipo de amplificación en el primer caso y algún tipo de reducción en el segundo. Cuando Louis Pasteur propuso la teoría de los gérmenes de la enfermedad en el siglo XIX, por ejemplo, a sus contemporáneos les debe haber parecido increíble, únicamente por la prueba de la incongruencia. ¿Cómo podrían criaturas diminutas e invisibles causar enfermedades, peste y muerte? A falta de información científica, la gente no vio ninguna cadena causal que pudiera amplificar causas tan diminutas con efectos tan enormes.
Es mejor pensar al revés
Varios enfoques pueden mejorar la forma en que hacemos que pensar hacia atrás funcione en la toma de decisiones:
1. Utilice varias metáforas.
Como pensar atrasado es a la vez intuitivo y rápido, la mayoría de las personas pueden generar una sola metáfora rápidamente y ampliarla hasta convertirse en una extensa cadena causal. Pero todas las metáforas son imperfectas. Cuando los utilice, es importante recordar el viejo adagio de que el mapa no es el territorio.
Usar varias metáforas puede evitar la adopción prematura de un solo modelo. En lugar de centrarse en una metáfora, experimente con varias. Piense, por ejemplo, en lo que podría pensar de las organizaciones complejas, como las escuelas de posgrado en negocios. Cada metáfora ilumina una dimensión diferente del sujeto. Podría pensar en las escuelas de negocios como escuelas de acabado, donde los estudiantes maduran adecuadamente antes de entrar en la vida empresarial; como academias militares, donde los estudiantes se preparan para la guerra económica; como monasterios, donde los estudiantes reciben adoctrinamiento en teología económica; como fábricas de diplomas, donde los estudiantes reciben certificaciones; o como talleres de trabajo, donde los estudiantes reciben herramientas para realizar tareas específicas.
Cada metáfora ilustra un factor diferente, una forma de pensar alternativa. Ninguna metáfora por sí sola es adecuada; si las tenemos en cuenta todas, se obtiene una imagen más completa.
2. No confíe solo en una señal.
Inferir la causalidad a partir de una sola señal a menudo conduce a un grave error. Como se basaban en una sola medida, los habitantes de las cavernas desviaron su atención de la verdadera causa del embarazo. La correlación no siempre implica causalidad, ni la causalidad implica siempre correlación.
3. A veces ir en contra de las señales.
Una gran ventaja de las señales es que dan estructura a nuestras percepciones y nos ayudan a interpretar información ambigua. Pero hay una compensación entre esta estructura y la novedad y la originalidad. Las señales ayudan a dirigir la atención a lo que es obvio y a reducir las interpretaciones alternativas. Pero el sello distintivo de las ideas es que nos sorprenden. Entonces, una forma de promover el pensamiento creativo es ir en contra de las señales. Cuando busque una explicación para un resultado complejo, a veces busque una causa simple o diferente en lugar de una causa compleja o similar.
4. Evalúe las cadenas causales.
La forma de poner a prueba las posibles causas y efectos es mediante una cadena causal, pero la fuerza de cada cadena varía. La cadena que conecta las manchas solares y los precios de las acciones, por ejemplo, es débil porque hay muchos eslabones y cada uno es incierto. De hecho, la mayoría de las cadenas causales son tan fuertes como sus eslabones más débiles y, por lo general, las cadenas largas son más débiles que las cortas. Pero las investigaciones indican que la gente no siempre comprende estos hechos. Muchas personas consideran que los escenarios complejos con resultados detallados son mucho más coherentes y, por lo tanto, mucho más probables que los simples. Es importante evaluar las cadenas según el número y la fuerza de sus eslabones.
5. Genere y pruebe explicaciones alternativas.
La mayoría de las personas tienen una aptitud natural para pensar de forma diagnóstica. Pero uno de sus inconvenientes es que puede llevar a supersticiones que se mantienen durante largos períodos. La historia de la medicina está llena de ellos. Durante muchos años, los médicos utilizaron el derramamiento de sangre, por ejemplo, como una cura popular y presumiblemente sólida desde el punto de vista científico. ¿Podrían nuestras teorías más preciadas sobre la economía y los negocios con el tiempo quedar tan obsoletas como el derramamiento de sangre?
Los experimentos pueden proteger contra la superstición. Para evaluar la eficacia de la publicidad, por ejemplo, podría realizar experimentos dejando de hacer publicidad por completo. Si no es posible llegar a esos extremos, le vendrían bien las pruebas parciales, que pueden proporcionarle mucha información útil: podría dejar de hacer publicidad solo en determinadas áreas o durante determinados períodos.
Si no puede hacer un experimento de este tipo, puede imaginarse situaciones en las que el efecto se produzca sin la causa sospechosa. En escenarios imaginarios, puede juzgar las relaciones causales. La pregunta que se está considerando puede ser si una campaña publicitaria en concreto ha provocado un aumento de las ventas. Intentando responder a la pregunta: ¿Habrían subido las ventas sin la campaña de publicidad? puede obtener una estimación de la relación adecuada entre las ventas y la publicidad. Un experimento que valga la pena incluiría una segunda pregunta: ¿Subirán las ventas si hacemos publicidad? Al plantear estas preguntas de forma sistemática, puede obtener información casi tan útil y poderosa como la que se obtiene al probar algo.
Pensando en el futuro
Nos guste reconocerlo o no, la mayoría de las veces hacemos un mal trabajo al pensar en el futuro con precisión. Las pruebas recopiladas en campos tan diversos como la consejería matrimonial, los préstamos bancarios, las previsiones económicas y el asesoramiento psicológico indican que la mayoría de las predicciones humanas son menos precisas incluso que los modelos estadísticos más simples.
Sin embargo, la mayoría de las personas tienen más fe en el juicio humano que en los modelos estadísticos. Las desventajas de los modelos estadísticos en comparación con el juicio humano parecen obvias. O eso dice el argumento. ¿Pero es correcto? Consideremos las pruebas.
Las modelos cometen errores. El uso de un modelo formal implica compensaciones; un modelo cometerá errores, ya que es una abstracción que no puede captar toda la riqueza de las relaciones entre las variables. El juicio humano, por otro lado, a veces puede capitalizar rasgos idiosincrásicos que son difíciles o imposibles de modelar.
El juicio humano también puede provocar errores, pero los modelos son perfectamente consistentes; nunca se aburren, se cansan ni se distraen, como hace la gente. Los modelos nunca son inconsistentes ni aleatorios; de hecho, pueden ser consistentes hasta cierto punto. La pregunta importante, entonces, es qué método produce menos errores generales.
O dicho de otra manera, si aceptamos la inevitabilidad de algún error por el uso de un modelo formal, ¿acabaremos con menos errores generales si utilizamos el modelo en lugar del juicio humano? Según los resultados de los experimentos psicológicos sobre el aprendizaje probabilístico, la respuesta es sí.
En estos estudios, se pide a los sujetos que predigan cuál de las dos luces (una roja y otra verde) se encenderá. Si aciertan, los sujetos reciben una recompensa en efectivo. Si se equivocan, no reciben ninguna recompensa. Un proceso aleatorio determina qué luz se enciende, pero por disposición, la luz roja se enciende 60% de la hora y la luz verde, 40%. A los sujetos no se les informa de los porcentajes, pero tienen la oportunidad de conocerlos participando en el experimento.
El resultado de este tipo de experimentos es algo que se denomina coincidencia de probabilidades: los sujetos aprenden a responder a las señales en la misma proporción en que se producen. En este caso, los sujetos predicen el rojo alrededor de 60% de la época y verde, 40%. Sin embargo, no idean la mejor estrategia predictiva que se lleve la mayor recompensa en efectivo, porque no están dispuestos a aceptar el error.
Prediciendo el rojo 60% de la época y 40 verdes%, los sujetos pueden esperar tener razón un total de 52% de las veces: estarán justo en el semáforo en rojo 36% de la hora y justo en el semáforo verde 16% de la época.
Pero, ¿qué pasaría si los sujetos estuvieran dispuestos a predecir el rojo, el color más probable, cada vez? Esa estrategia acepta el error; también lleva a 60% predicción correcta: 8% más alto que una estrategia que busca la respuesta correcta en cada suposición.
Los sujetos ganarían más dinero si aceptaran el error y utilizaran de forma coherente un modelo matemático simple. Sin embargo, la mayoría de los sujetos tratan de predecir a la perfección e intentan inútilmente discernir alguna regla o patrón inexistente que determine qué luz se encenderá. Cualquier parecido entre este ejemplo y jugar en bolsa es pura coincidencia.
Los modelos son estáticos. Esta crítica simplemente no es cierta. Los modelos pueden y deben actualizarse con la nueva información a medida que esté disponible. Ahora se están desarrollando modelos que aprenden de los resultados de los eventos pronosticados. Esta obra, aunque aún se encuentra en sus primeras etapas, sugiere que los modelos pueden aprender de la experiencia.
En lo que respecta al juicio humano, simplemente no está claro que las personas aprendan de los comentarios a la hora de hacer predicciones. Parte de la dificultad de aprendizaje se produce cuando las personas hacen juicios predictivos para tomar medidas. Los resultados solo proporcionan comentarios ambiguos sobre la calidad de las predicciones.
Por ejemplo, imagine un caso en el que el presidente de los Estados Unidos tome medidas enérgicas para contrarrestar la previsión de una desaceleración económica. Pensemos ahora en las dificultades de aprender de los distintos resultados posibles. Imagínese no tener una recesión como resultado. Esto podría deberse a una predicción incorrecta y a una acción ineficaz o a una predicción precisa y a una acción muy eficaz. Ahora imagine una recesión como resultado. Esto podría deberse a una predicción precisa y a una acción ineficaz o a una predicción inexacta y a una acción bumerán que cause la misma enfermedad que pretende prevenir. El problema es el siguiente: para conocer nuestra capacidad predictiva es necesario separar la calidad de las predicciones de los efectos de las acciones en función de esas predicciones.
Los modelos no valen la pena. En general, es imposible evaluar el argumento de que cualquier aumento marginal de la precisión derivado del uso de modelos no supera el coste adicional de crearlos. Sin embargo, si se utiliza un modelo para hacer suficientes predicciones, incluso pequeños aumentos de precisión pueden generar grandes beneficios.
Por ejemplo, a finales de la década de 1970, AT&T llevó a cabo un estudio para determinar las características de los riesgos crediticios buenos y malos.1 La dirección incorporó los resultados en un conjunto de reglas de decisión que utilizó para determinar qué nuevos clientes deberían tener la obligación de hacer depósitos. Al desarrollar estas normas, AT&T pasó por una época en la que concedía crédito a clientes que antes habría clasificado como riesgos buenos y riesgos malos. Como resultado, se validaron las normas en toda la gama de características de los clientes. Al implementar las reglas de decisión, la dirección obtuvo una reducción anual estimada de$ 137 millones en deudas incobrables. Si bien no hay cifras disponibles sobre el coste de creación y mantenimiento del modelo, cuesta creer que los ahorros no justifiquen el gasto.
Si bien muchos fenómenos que intentamos predecir son complejos, las reglas para razonar hacia adelante no tienen por qué coincidir con esta complejidad. Muchas aplicaciones exitosas han implicado combinaciones simples de solo unas pocas variables. A veces, las reglas se desarrollan a partir de modelar los juicios pasados de un experto, a veces simplemente promediando las decisiones pasadas y, a veces, simplemente agregando algunas variables relevantes.
Hacia atrás y hacia adelante
Nuestra experiencia diaria está repleta de ejemplos de pensar hacia atrás y hacia el futuro. Utilizamos constantemente ambos modos de razonamiento, por separado y juntos, y nuestros esfuerzos están constantemente confundidos.
Si bien las reglas o modelos explícitos son las mejores herramientas para razonar en el futuro, la intuición o las nociones de causa suelen ejercer una poderosa influencia en las predicciones que hacemos. Cuando las personas toman medidas en situaciones en las que procesos aleatorios producen los resultados, a veces son objeto de delirios de control. Por ejemplo, la gente tiende a creer que los billetes de lotería que seleccionan personalmente tienen más probabilidades de ganar que los que les selecciona el administrador de la lotería.
Del mismo modo, en situaciones complejas, puede que nos basemos demasiado en la planificación y las previsiones y subestimemos la importancia de los factores aleatorios en el entorno. Esa confianza también puede provocar delirios de control. La mejor postura es permanecer escéptico ante todas las afirmaciones no documentadas sobre precisión predictiva, ya sea que se deriven de expertos, modelos o ambos. Recuerde la teoría de la predicción de los videntes: por cada vidente hay un tonto.2
Un importante artículo sobre cómo mejorar la capacidad predictiva expresó una vez la tarea de pensar en el futuro de la siguiente manera: «El truco consiste en decidir qué variables analizar y, luego, saber cómo sumarlas».3 Pero «el truco» es difícil y requiere una visión compleja hacia atrás. De hecho, los científicos de la computación que trabajan para crear programas que simulen el proceso de comprensión mediante inteligencia artificial han tenido grandes dificultades para modelar este proceso. Un ejemplo reciente se refiere a un programa que escribieron para simular la comprensión de los titulares de los periódicos. Proporcionaron al programa conocimientos básicos y un conjunto de reglas para reescribir los titulares. Uno de esos titulares era: «El mundo se estremeció. Un tiro al Papa». El ordenador lo interpretó como: «Terremoto en Italia. Un muerto».
Aunque el estudio psicológico del juicio y la toma de decisiones se ha centrado en separar el pensamiento hacia atrás del pensamiento hacia el futuro aclarando la distinción, los dos modos de razonamiento son interdependientes. Como el dios Jano en la mitología romana, cuya cabeza tiene dos caras, una mirando hacia adelante y la otra hacia atrás, pensamos en ambas direcciones cada vez que nos proponemos trabajar para tomar una decisión.
1. J.L. Showers y L.M. Chakrin, «Reducir los ingresos incobrables de los clientes de telefonía residencial», Interfaces, Diciembre de 1981, pág. 21.
2. J. Scott Armstrong, Previsión a largo plazo (Nueva York: Wiley, 1978).
3. Robyn M. Dawes y Bernard Corrigan, «Modelos lineales en la toma de decisiones», Boletín psicológico, Febrero de 1974, pág. 95.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.