Encuentre el enfoque de la IA que se adapte al problema que intenta resolver
por George Westerman, Sam Ransbotham, Chiara Farronato

Los líderes de todo el mundo se preguntan con razón cómo la IA generativa puede beneficiar a sus empresas. Sin embargo, a pesar de lo impresionante que es la IA generativa, es solo una de las muchas técnicas avanzadas de análisis y ciencia de datos. Si bien el mundo se centra en la IA generativa, un enfoque mejor es entender cómo utilizar la gama de herramientas de análisis disponibles para satisfacer las necesidades de su empresa. ¿Qué herramienta de análisis se ajusta al problema que intenta resolver? ¿Y cómo evita elegir el incorrecto? No necesita conocer detalles detallados sobre cada herramienta de análisis de la que dispone, pero sí necesita saber lo suficiente como para imaginarse lo que es posible y hacer las preguntas correctas a los expertos técnicos.
Empiece por el problema, no por la tecnología. Con un martillo (de IA generativa), todo empieza a parecer un clavo. Pero, en lugar de preguntarse cómo utilizar la IA generativa en su empresa, pregunte qué es lo que necesita lograr. Sí, la IA puede ayudar a explorar, predecir, optimizar y recomendar. Pero no todos los problemas son problemas de IA. «No necesito una estrategia de IA generativa. Lo que necesito es una estrategia de automatización», dijo Tom Peck, director de información y tecnología digital de Sysco. «Muchas cosas… se pueden resolver con funciones de automatización más básicas o tradicionales». Empezar por el problema aclara la herramienta que necesita.
La compañía aérea holandesa KLM utiliza la IA para predecir qué pasajeros tienen más probabilidades de perder sus vuelos, lo que reduce los retrasos al hacer que sus maletas sean más accesibles para su descarga. Sin embargo, sigue utilizando las técnicas tradicionales de optimización analítica para muchos problemas de gestión de ingresos, planificación del personal de tierra, programación de vuelos, planificación de la tripulación y mantenimiento de motores. Boeing utiliza la IA para optimizar las rutas al acercarse o salir de los aeropuertos. Pero, a pesar de los considerables avances en el reconocimiento de voz, Boeing sigue utilizando la comunicación de voz de la vieja escuela entre los controladores y los pilotos ya que la tolerancia a los errores en ese contexto es increíblemente baja y las soluciones implicarían a todo un ecosistema industrial. Es importante destacar que no todos los experimentos de IA de Boeing se convierten ahora en una solución de producción; algunos experimentos preparan el terreno para más adelante.
Producir su avión A350 más rápido que ningún otro avión anterior, el competidor de Boeing Airbus creó un sistema basado en la IA que recomienda soluciones para el 70% de las interrupciones de la producción, dejando solo el 30% para que los humanos lo diagnostiquen. Más allá de registrar los problemas y sugerir soluciones, las coincidencias difusas y un algoritmo de autoaprendizaje también identifican patrones que podrían ayudar a prevenir problemas futuros antes de que se produzcan. Así que, en lugar de simplemente entrenar un modelo de aprendizaje automático, Airbus creó un proceso basado en el aprendizaje automático para el aprendizaje organizacional.
Sin embargo, Airbus no empezó preguntándose cómo utilizar la IA en la producción. Empezó por identificar las categorías de los desafíos de producción y, después, por decidir cómo podría abordar cada uno de ellos. La IA era adecuada para este problema, pero no para todos los problemas. Matthew Evans, vicepresidente de transformación digital durante el lanzamiento de la producción del A350, enfurecido ante la idea de empezar con la tecnología. «Estrictamente hablando, no invertimos en IA. No invertimos en el procesamiento del lenguaje natural. No invertimos en análisis de imágenes. Siempre invertimos en un problema empresarial,” dijo. Airbus evaluó muchas opciones antes de decidir que este tipo de IA era la que mejor se ajustaba.
Las cuatro categorías de la analítica avanzada
Hay muchas técnicas de IA y análisis avanzado, y la lista crece con cada comunicado de prensa. Sin embargo, cuando le preguntamos a Ameen Kazerouni de OrangeTheory sobre su momento de mayor orgullo al usar el aprendizaje automático, dijo:» Cuando lo resolvimos mediante una regresión lineal .» El equipo eligió la herramienta analítica adecuada, no la más sofisticada desde el punto de vista tecnológico, para el problema al que se enfrentaba. Como líder, no necesita conocer las complejidades de cada técnica analítica; cuenta con expertos técnicos para ello. Sin embargo, entender las cuatro categorías puede ayudarlo a diferenciarse, hacer las preguntas correctas y ganar confianza.
IA generativa
La IA generativa crea nuevos datos, imágenes, vídeos, textos o sonidos que son similares pero no idénticos a los datos existentes. ChatGPT es un ejemplo, pero también lo son Midjourney (generación de imágenes), Synthesia (vídeo a partir del texto) y Cresta (formación en tiempo real de agentes de centros de llamadas). Los fabricantes de productos existentes, como Adobe, Shopify, Canva y Autodesk, están incorporando funciones de IA generativa en sus ofertas. Estos algoritmos resumen el material, responden a las preguntas o escriben artículos desde cero, lo que beneficia a las comunicaciones de marketing y al servicio de atención al cliente. También ayudan a las personas a entender los nuevos documentos que llegan rápidamente, como los reglamentos, los informes financieros o la investigación médica. Pero también pueden generar datos sesgados o de baja calidad («alucinaciones») y requieren enormes cantidades de potencia de cálculo y datos.
Aprendizaje profundo tradicional
Las técnicas de aprendizaje profundo ingieren grandes volúmenes de datos complejos para aprender patrones y relaciones. Pueden clasificar, como comprar o no, préstamos seguros o riesgosos, tejidos cancerosos o benignos. Pueden optimizar, por ejemplo, ajustar las líneas de producción o reducir el consumo de energía. Sin embargo, para obtener información, también necesitan datos para los que la verdadera clasificación ya existe. Además, los resultados de los modelos son difíciles de explicar, lo que significa que las empresas no pueden decir a los clientes ni a los reguladores por qué una predicción es la que es.
Econometría
En relación con la complejidad y el coste del aprendizaje automático, las técnicas estadísticas tradicionales a veces pueden funcionar igual de bien a un coste mucho menor. La profunda historia de la econometría ofrece herramientas poderosas para probar los mecanismos teóricos y entender las relaciones causales a partir de datos o experimentos de observación. Un gerente puede determinar en qué medida influye cada variable en un resultado y entender la magnitud de las relaciones causales. Los modelos también son muy repetibles y siempre dan las mismas respuestas a las mismas entradas. Sin embargo, los modelos econométricos suelen requerir suposiciones sobre las relaciones y las distribuciones estadísticas subyacentes.
Automatización basada en reglas
Los primeros modelos de IA se basaban en reglas de «si entonces» y siguen prevaleciendo, y son valiosos. Los sistemas basados en reglas pueden ser sencillos, comprensibles, interpretables y transparentes. Se adaptan a problemas bien entendidos, como la aplicación de las directrices establecidas (por ejemplo, las leyes fiscales). Sin embargo, pueden necesitar una cantidad significativa de experiencia en el campo para crearlo. También pueden ser inflexibles, no se adaptan a los cambios de contexto y no pueden dar respuestas a escenarios que los diseñadores no imaginaron inicialmente.
Cada uno de estos métodos es útil en diferentes situaciones, a menudo en combinación. El truco está en saber cuándo usar (y no usar) cada uno.
Cómo elegir: las cinco preguntas que debe hacerse
Cada proceso y decisión es un candidato potencial para nuevos enfoques de análisis avanzado. Pero el contexto importa. En esta sección, ofrecemos cinco preguntas que puede hacer sobre las limitaciones de la IA.
Las organizaciones difieren considerablemente no solo en lo que pueden hacer, sino también en lo que los reguladores o los clientes les permiten hacer. Dentro de una organización, las restricciones varían según el problema. Agus Sudjianto, vicepresidente ejecutivo y director de riesgo de modelos corporativos de Wells Fargo, dijo, «Los modelos tienen que ser muy, muy transparentes y los reguladores los comprueban constantemente. Cuando decidimos no utilizar el aprendizaje automático como modelo final, es porque los requisitos reglamentarios suelen exigir que las soluciones sean menos una «caja negra» y algo que el regulador pueda ver con mucha claridad. Pero utilizamos algoritmos de aprendizaje automático para evaluar la construcción no lineal del modelo, las variables y las características introducidas y como punto de referencia del rendimiento del modelo tradicional». Aunque estos procesos se benefician de la información del aprendizaje automático, las normas limitan lo que el banco puede invertir en la producción.
1. ¿Cuánto cuesta equivocarse?
La IA generativa es buena en los primeros borradores y en las respuestas «lo suficientemente cercanas». Por ejemplo, un banco global utiliza la IA para evaluar su posición estratégica momentos después de que cada competidor anuncie sus beneficios. Otras empresas utilizan la IA para identificar situaciones potencialmente problemáticas en sus cadenas de suministro o detectar los contratos de los vendedores que carecen de protecciones específicas. Estas aplicaciones mejoran los procesos centrados en las personas y no implican costes onerosos por errores ocasionales. Pero estar lo suficientemente cerca no es suficiente para recetar medicamentos, controlar el tráfico aéreo o conducir un coche en el tráfico. ¿Puede su problema vivir con una precisión inferior a la excelente? ¿O el coste del error dicta un enfoque diferente? ¿O puede utilizar un enfoque híbrido, como el que los ordenadores identifiquen posibles diagnósticos médicos u objetivos militares, pero los humanos tomen la decisión final?
2. ¿Necesita explicar las decisiones que toma su modelo?
A la hora de conceder préstamos bancarios o seleccionar candidatos a un puesto, necesita tener claro qué es lo que impulsa las decisiones. Otros contextos, como la optimización de la velocidad de la línea de producción, la identificación de productos defectuosos en una línea de producción o el envío de anuncios, pueden funcionar bien sin necesidad de explicación. La explicabilidad puede seguir siendo útil incluso cuando los reguladores o los clientes no la solicitan. Por ejemplo, entender cómo características específicas de las imágenes de los anuncios de Airbnb o cómo ciertas frases de la descripción de un producto influyen en el comportamiento del comprador puede ayudar a las empresas a aumentar las ventas.
Los algoritmos de aprendizaje automático, especialmente los basados en el aprendizaje profundo, pueden dar respuestas precisas, pero sus modelos dan poca idea de por qué. Mientras tanto, los modelos econométricos pueden mostrar cómo las variables influyen en las decisiones, pero pueden carecer de la precisión que proviene de los modelos más grandes. ¿Necesita saber por qué una modelo hace lo que hace? ¿O basta con una buena respuesta?
3. ¿Sus modelos tienen que generar siempre las mismas respuestas?
La IA generativa, por diseño, genera respuestas diferentes cada vez. Los modelos econométricos y los modelos basados en reglas dan las mismas respuestas para las mismas entradas, pero pueden quedar anticuados a medida que cambian las condiciones. La mayoría de los modelos de aprendizaje automático dan respuestas repetibles, pero si actualizan constantemente sus datos de entrenamiento, esas respuestas pueden variar con el tiempo.
En las organizaciones financieras, donde las conversaciones con los clientes tienen implicaciones financieras y cada declaración es un consejo financiero, la repetibilidad pasa a ser fundamental. Mientras tanto, seleccionar los mismos candidatos cada vez puede no ser tan importante mientras el proceso no tenga un sesgo sistemático en contra de una clase de solicitantes específica.
Sin embargo, es importante comprobar constantemente si los algoritmos repetibles siguen siendo precisos a medida que cambian las condiciones. Por ejemplo, las empresas que utilizan algoritmos repetibles para la negociación de inversiones deben estar constantemente atentas a cuando las condiciones del mercado cambien lo suficiente como para garantizar la sustitución del modelo y no simplemente volver a capacitarse con nuevos datos.
4. ¿Sus datos tienen una fuente veraz?
Muchos algoritmos de aprendizaje automático supervisado, por ejemplo, tienen como objetivo distinguir las categorías de objetos. Para entrenarlos, necesita datos etiquetados con precisión. Esta imagen contiene (o no contiene) una señal de alto. Esta persona tiene un riesgo crediticio razonable o pésimo. Esta respuesta a la consulta de un cliente ayudó, mientras que esa no.
Sin una buena fuente de información, una red neuronal compleja de aprendizaje profundo multicapa puede no ser mejor que lanzar una moneda al aire. ¿Tiene suficientes datos bien etiquetados? Si no, ¿tiene mejores fuentes de verdad para categorizaciones menos específicas (identificar un «animal parecido a un caballo» que distinguir entre caballos, burros y camellos)? Los humanos pueden mejorar estas predicciones y ayudar a los sistemas a ser cada vez más inteligentes mediante la retroalimentación de refuerzo. Pero sin un punto de partida suficiente, es posible que los humanos se cansen rápidamente de ayudar a los robots de IA novatos que se supone que deben ayudarlos.
5. ¿Sus datos de entrenamiento reflejan las condiciones en las que operará?
Aunque los algoritmos de IA modernos pueden descubrir patrones en los datos que las técnicas más antiguas pueden pasar por alto, el patrón debe ser un patrón, no un ruido. Y debe provenir de todo el conjunto de contextos en los que opera. ¿Tiene datos de inversión de los buenos y malos tiempos? ¿Datos médicos de hombres y mujeres y de diferentes etnias? Amazon, por ejemplo, desechó los algoritmos de selección de currículums basados en la IA que aprendió a favorecer los verbos utilizados más por los hombres que por las mujeres o a discriminar a las graduadas de universidades exclusivamente femeninas. Un conjunto de datos de formación dominado por los hombres, basado en la fuerza laboral de la empresa, históricamente dominada por los hombres, llevó a la máquina a tomar decisiones sesgadas.
Aunque debe tener cuidado con la calidad de los datos que utiliza, no tiene por qué ser impecable. Según los riesgos y las limitaciones del problema que elija, puede mejorar un modelo mediante la retroalimentación de refuerzo.
Un enfoque es limitar inicialmente los modelos y ampliar poco a poco el alcance y la sofisticación. Por ejemplo, los coches autónomos representan una situación en la que la repetibilidad es importante, la explicabilidad puede ser menos importante, pero la precisión es fundamental. Los datos de entrenamiento etiquetados de mapas digitales y otras fuentes no representan la gama completa de condiciones de la carretera a las que puede enfrentarse un automóvil. Los comentarios sobre el uso real pueden ayudar a que los modelos de aprendizaje profundo del coche mejoren con el tiempo y pueden hacer viables algoritmos aún más sofisticados. Sin embargo, dado que los costes de inexactitud son altos, los fabricantes de automóviles están adoptando un enfoque escalonado para gestionar el alcance y el riesgo. Por ejemplo, Tesla, que se enorgullece de lanzar algoritmos de conducción sofisticados más rápido que la competencia, se lanzó primero para las condiciones de las autopistas, que son menos complejas y más predecibles que las calles urbanas. Solo después de recopilar millones de kilómetros de vídeos callejeros urbanos de la vida real de sus coches, Tesla puso a prueba sus algoritmos en las ciudades.
Algunas decisiones de conducción no requieren datos exactos de la etiqueta. Basta con frenar cuando cualquier objeto está justo delante sin reconocerlo perfectamente. Las acciones de los conductores también pueden proporcionar comentarios de refuerzo para ayudar. Tesla lanzó inicialmente algoritmos para identificar los semáforos en rojo y las señales de alto antes de enseñar a los coches a detenerse por ellos y, más tarde, a detenerse y marcharse. Cada acción que realizaba un conductor se convertía en comentarios para permitir nuevos algoritmos. Aun así, los datos de entrenamiento no contienen todas las situaciones poco comunes y los conductores de Tesla deben estar siempre preparados para tomar el control si es necesario.
Usar la IA no es tan abrumador como lo era hace unos años. Los modelos potentes son cada vez más fáciles de implementar. Independientemente de lo que la IA generativa aprenda a hacer, es solo una de las muchas herramientas de análisis disponibles. Empiece por el problema que quiere resolver. Todas las empresas tienen muchos problemas adecuados para la IA. Sin embargo, el atractivo de las tecnologías sofisticadas puede llevar a las personas a hacer que pequeñas partes de las organizaciones sean extremadamente sofisticadas, mientras que otras van a la zaga. El mundo de la IA avanza rápido, pero las organizaciones cambian mucho más despacio. Lo que funciona en un laboratorio puede estar mal para su empresa ahora mismo. Si sabe las preguntas correctas que hacer, puede tomar mejores decisiones, independientemente de la rapidez con la que cambie la tecnología. Puede trabajar con sus expertos técnicos para utilizar la herramienta adecuada para el trabajo correcto. Entonces, cada solución de hoy se convierte en la base para crear más innovaciones mañana.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.