PathMBA Vault

Technology and analytics

¿Cuándo debe utilizar la IA para resolver problemas?

por Bob Suh

¿Cuándo debe utilizar la IA para resolver problemas?

Los líderes empresariales suelen enorgullecerse de su toma de decisiones intuitiva. No llegaron a ser jefes de división y directores ejecutivos siguiendo robóticamente alguna lista de control de liderazgo. Por supuesto, la intuición y el instinto pueden ser importantes herramientas de liderazgo, pero no si se aplican de forma indiscriminada.

El auge de la inteligencia artificial ha puesto de manifiesto los defectos en los rasgos que valoramos desde hace mucho tiempo en los responsables de la toma de decisiones ejecutivas. Los algoritmos han revelado que las acciones que antes se consideraban proféticas dan suerte, los principios de decisión que antes se consideraban sagrados no se han demostrado y la convicción inquebrantable es miope. No busque más allá del desempeño de los fondos de inversión gestionados activamente para ver las deficiencias de los enfoques tradicionales de toma de decisiones humanas. Con raras excepciones, estos fondos, muchos de ellos gestionados por inversores famosos, fondos indexados con bajo rendimiento a largo plazo, y las operaciones algorítmicas de la IA suelen superar a las humanas.

La IA no sustituirá pronto a la toma de decisiones intuitiva. Pero los ejecutivos tendrán que generar disrupción en sus propios estilos de toma de decisiones para aprovechar al máximo las capacidades de la IA. Tendrán que moderar sus convicciones con datos, poner a prueba sus creencias con experimentos y dirigir la IA para que ataque los problemas correctos. Justo cuando los gestores de carteras descubren que deben aprender a elegir el mejor algoritmo en lugar de las mejores acciones, los ejecutivos de todos los campos se enfrentarán a una elección que se interrumpe a sí misma: aprender a operar la máquina o ser reemplazados por ella.

La escalera de la causalidad

Veamos qué hace que la IA sea superior a los humanos a la hora de resolver ciertos tipos de problemas y cómo eso puede informar el enfoque de los ejecutivos con respecto a la tecnología. En los últimos años, la IA ha derrotado a los campeones del mundo de póquer, ajedrez, Jeopardy y Go. Si a la gente le sorprenden estas victorias, está subestimando la cantidad de memorización y lógica matemática que se necesitan para ganar esas partidas. Y en el caso del póquer y el ajedrez, están sobreestimando el papel que desempeña la visión del comportamiento humano.

Tuomas Sandholm, un científico informático del Carnegie Mellon, creó la IA Libratus, que derrotó a los mejores jugadores de póquer del mundo. Él descrito sus algoritmos eran en su mayoría máquinas de predicción probabilística y reconoció que no era necesario estudiar el comportamiento de los oponentes de la IA (sus fintas y «revelaciones», etc.) para ganar. Aplicando la teoría de juegos y el aprendizaje automático, Libratus aplastó a sus oponentes simplemente jugando con las probabilidades. Incluso en el póquer de campeonato, entender las leyes de la probabilidad es mucho más importante que leer el comportamiento del oponente.

Entonces, la clave para que los responsables de la toma de decisiones optimicen su trabajo con la IA es reconocer qué tipo de problemas dejar en manos de la IA y cuáles son los que la mente gerencial, si se interrumpe adecuadamente, resolverá mejor. La obra de la aclamada científica informática Judea Pearl ofrece una guía. Pearl concibió la famosa escala de causalidad, que describe tres niveles del pensamiento inferencial que, para nuestros propósitos, pueden proporcionar una hoja de ruta para la autodisrupción. Como señala Pearl en El libro del por qué: la nueva ciencia de la causa y el efecto, «Ninguna máquina puede obtener explicaciones a partir de datos sin procesar. Necesita un empujón». El primer peldaño de la escala es la inferencia por asociación (si A, entonces B); el siguiente, la inferencia por intervención (si cambia la entrada X, ¿qué pasa con el resultado Y?) ; y, por último, inferir mediante la aplicación de contrafácticos: construcciones no intuitivas que parecen estar en desacuerdo con los hechos y que conducen a ideas novedosas.

Asociación

La asociación implica examinar la correlación entre dos variables: cuando subimos los precios, ¿qué pasa con las ganancias? La IA es muy buena para analizar enormes cantidades de datos para descubrir asociaciones; por ejemplo, las redes sociales utilizan algoritmos asociativos para predecir qué publicaciones atraerán más visitas, en función del comportamiento anterior de los usuarios.

A los humanos no se les da muy bien esto, ya que son más lentos y, a menudo, están más sujetos a sesgos. Como resultado, los ejecutivos que toman decisiones basándose únicamente en asociaciones intuitivas pueden llegar a conclusiones erróneas sobre la causa y el efecto, por ejemplo, al suponer erróneamente que una acción determinada llevó al resultado deseado. Un ejemplo: cuando dirigía el grupo interno de estrategia corporativa de Accenture, dedicamos mucho tiempo y capital a desarrollar servicios diferenciados, porque los clientes parecían dispuestos a pagar más por ellos, lo que generaba mayores beneficios. Pero cuando más tarde comparamos la rentabilidad de los clientes que reciben servicios diferenciados con los indiferenciados, descubrimos que fueron las relaciones personales con los clientes, no la diferenciación de los servicios, las que impulsaron los beneficios. La aparente relación entre los servicios diferenciados y los beneficios era un principio no comprobado que habíamos seguido durante años.

Intervención

La intervención es el proceso de realizar una acción y observar su impacto directo en el resultado; en esencia, manipular una variable experimental. Los responsables de la toma de decisiones empresariales lo hacen todo el tiempo; por ejemplo, pueden ajustar el precio de un producto y, a continuación, medir el efecto en las ventas o los beneficios. Pero se meten en problemas cuando confían demasiado en el resultado previsto. Una intervención eficaz requiere estar dispuesto a poner a prueba una variedad de entradas, incluso las contraintuitivas, para ver cómo pueden cambiar el resultado. Aquí los humanos pueden tener una ventaja sobre la IA.

Hace varios años, mi empresa emergente creó dos productos prometedores: una solución de IA de ventas y una solución de IA fintech para las operaciones. Usamos la IA para ejecutar escenarios de previsión basados en las evaluaciones del mercado probable de cada producto. El modelado determinó que el producto de venta tendría el mejor rendimiento, a pesar de que se lanzaría a un mercado abarrotado. Pero por un presentimiento, decidimos lanzar campañas para ambos productos una al lado de la otra para comprobar si el producto fintech podría tener una ventaja inesperada sobre la solución de venta, ya que el mercado era menos competitivo. Resultó que, en 90 días, el producto fintech superaba con creces las ventas de la solución, y rápidamente se hizo con una mayor cuota de mercado en el pequeño.

Contrafácticos

El concepto de contrafácticos está muy bien capturado en la película clásica Es una vida maravillosa, en la que el ángel Clarence revela una oscura realidad alternativa a Jimmy Stewart: el mundo tal como habría sido si no hubiera nacido. La inferencia contrafáctica implica el acto creativo de imaginar lo que podría haber sucedido si una determinada variable de un experimento (o, en nuestro caso, de una actividad empresarial) hubiera sido diferente, teniendo en cuenta todo lo demás que sabemos.

Cuando era un joven consultor, el COO de McDonald’s me pidió que le ayudara a justificar la financiación corporativa de la empresa para la I+D. «¿Cuál es su método para hacerlo?» preguntó ella. Guardé silencio durante mucho tiempo y luego respondí: «Imaginemos lo que pasaría si la empresa no hacer I+D y lo dejé en manos de los franquiciados». Lo contrafáctico era una realidad imaginaria en la que la I+D corporativa no existía. El COO esperaba que, en ese mundo, los ingresos se desplomaran.

Aunque sin una máquina del tiempo es imposible poner a prueba una verdadera contrafáctica con una decisión empresarial ejecutada anteriormente, puede buscar pruebas del aspecto que podría tener la realidad contrafáctica. En el caso de McDonald’s, le sugerí que examináramos cada lanzamiento reciente de un producto y comprobáramos su origen. El ejercicio fue revelador y sorprendente: muchos de los éxitos, como el Big Mac y el Filet-O-Fish, venían del campo de juego, mientras que algunos de los mayores fracasos, como la Deluxe, fueron idea de la empresa. Nuestro experimento mental contrafáctico nos dio una idea más clara del papel relativo de la I+D empresarial en la innovación de los productos de la empresa.

Human Plus Machine

Piense en cómo los humanos y la IA juntos encontraron un avión derribado combinando enfoques de asociación, intervención y contrafácticos. En junio de 2009, Air France 447 desaparecido en una tormenta frente a la costa de Brasil con 228 pasajeros y tripulación a bordo. El gobierno francés pasó dos años buscando los restos, sin éxito.

Tras cuatro intentos fallidos, contrató a un equipo de matemáticos. Mediante la IA, el equipo aplicó una técnica estadística bayesiana que actualiza una predicción probabilística a medida que hay nueva información disponible, en este caso, la probabilidad de que el avión estuviera en un lugar determinado del fondo del océano.

Sorprendentemente, el equipo localizó el avión en tan solo una semana. ¿Cómo? Su predicción inicial, respaldada por la IA, identificó el área de búsqueda más prometedora, una región que el gobierno ya había cubierto. Pero se necesitó una visión humana para tener en cuenta información «nueva» sobre los fracasos anteriores que el equipo de gobierno no había pensado y cambiar una variable de búsqueda importante para ver su impacto en el resultado. La clave era preguntar si la baliza del avión podría haber fallado, lo que podría haber llevado al gobierno a perder el lugar del accidente. De hecho, la suposición de que una baliza falló era correcta y los restos se encontraron cerca de donde los habían colocado las predicciones anteriores.

La IA es una poderosa herramienta de toma de decisiones, pero si el rendimiento es el final, los líderes y otros responsables de la toma de decisiones ejecutivas tienen que replantearse la mejor manera de aprovecharla. Eso no significa dejar la toma de decisiones en manos de las máquinas. Más bien, exige que los responsables de la toma de decisiones se centren en el pensamiento creativo, intervencionista y contrafáctico en el que los humanos son especialmente buenos, al tiempo que confían en la IA para realizar las tareas de predicción y asociación con uso intensivo de datos en las que realmente sobresale. A medida que los humanos y las máquinas colaboren cada vez más, espero que veamos un equivalente a la ley de Moore en acción: que se dupliquen año tras año sus capacidades combinadas de toma de decisiones. Pero eso solo puede ocurrir si primero podemos generar disrupción en nuestra propia toma de decisiones.