La IA generativa sigue siendo solo una máquina de predicción
por Ajay Agrawal, Joshua Gans, Avi Goldfarb

Las herramientas de inteligencia artificial ahora pueden escribir, codificar, dibujar, resumir e intercambiar ideas. La proliferación de herramientas de IA generativa plantea serias dudas a los directivos, como: ¿qué tareas puede realizar la IA, qué tendrán que hacer los humanos aún y cuáles son las fuentes sostenibles de ventaja competitiva a medida que la IA siga mejorando? Para entender las implicaciones estratégicas de estas nuevas capacidades, los gerentes necesitan un marco para saber cuándo la IA será útil y cuándo podría fallar.
Cuando el potencial comercial de la IA empezó a hacerse evidente hace aproximadamente una década, muchas aplicaciones principales estaban problemas de predicción bien establecidos. Por ejemplo, los prestamistas usaron la IA para predecir si la gente devolvería un préstamo y los fabricantes utilizaron la IA en el mantenimiento predictivo para pronosticar fallos en el equipo. Estas aplicaciones parecen muy distintas de las que hacen ChatGPT, Gemini y otras herramientas de IA. Sin embargo, bajo el capó, las herramientas de IA generativa siguen siendo motores de predicción, posibilitado por las mejoras en las estadísticas computacionales y grandes cantidades de datos.
No reconocer que las herramientas generativas no son más que máquinas de predicción provocará errores estratégicos. La IA actual se basa en datos y no juzgue cuándo y cómo se debe construir y utilizar la IA. Los datos y el juicio son fundamentales para la aplicación de la IA generativa, aunque las aplicaciones vayan más allá de la mera predicción, como escribir textos. Por lo tanto, el éxito de los despliegues de la IA depende de tener acceso a los datos pertinentes y de tener el juicio empresarial necesario para saber qué IA será más eficaz.
Los ordenadores hacen aritmética
Ya lo hemos visto antes en la evolución de los ordenadores. Los ordenadores son máquinas aritméticas, ya que toman números binarios y realizan operaciones en ellos para ejecutar tareas complejas. Los avances en la informática pueden entenderse como la caída del coste aritmético. Muchas de las primeras aplicaciones para ordenadores de la década de 1970 estaban firmemente arraigadas en problemas aritméticos bien definidos, como contabilidad empresarial y cálculo de las trayectorias de la artillería para uso militar. A medida que el precio de la aritmética automática cayó de la década de 1970 a la década de 1990, quedó claro que los juegos, la música, el correo y la fotografía se resolverían con aritmética. En su apogeo en la década de 1990, Kodak permitió la fotografía principalmente a través de la ingeniería química, pero cuando la aritmética automática pasó a ser lo suficientemente barata, era posible reencuadrar la fotografía como un problema aritmético.
Pensar en los ordenadores como máquinas aritméticas es más importante de lo que la mayoría de la gente entiende intuitivamente, porque esa comprensión es fundamental para utilizar los ordenadores de forma eficaz, ya sea para el trabajo o el entretenimiento. Si bien es posible que los jugadores de videojuegos y los fotógrafos no piensen en su ordenador como una máquina aritmética, utilizar correctamente un ordenador (anterior a la IA) requiere entender que sigue estrictamente las instrucciones. Las instrucciones imprecisas conducen a resultados incorrectos.
Jugar y ganar en los primeros juegos de ordenador requería entender la lógica subyacente del juego. Super Mario Brothers siempre era igual, y entender el patrón de los distintos enemigos era necesario para tener éxito. Del mismo modo, el uso del software de procesamiento de textos y hojas de cálculo requiere la intuición de que el ordenador sigue las instrucciones directamente. Bajo el capó, los ordenadores realizaban las operaciones aritméticas exactamente como se les indicaba.
Del mismo modo, la composición y la producción de música han sido transformadas por los ordenadores. El software de producción musical, como las estaciones de trabajo de audio digital (DAW), utiliza una aritmética compleja para manipular las ondas sonoras, lo que permite a los músicos crear, editar y producir música con una precisión y una flexibilidad sin precedentes. Pero hacerlo bien requiere entender que el ordenador seguirá las instrucciones al pie de la letra.
La evolución de la IA ha reflejado esta trayectoria, con muchas de las primeras aplicaciones relacionadas directamente con tareas de predicción bien establecidas y, más recientemente, la IA redefinió un gran número de aplicaciones como predicciones. Por lo tanto, las aplicaciones de IA de mayor valor han pasado de predecir el impago del préstamo s y avería de la máquina s a un replanteamiento de la escritura, el dibujo, y otras tareas como la predicción. En nuestro libro de 2018 Máquinas de predicción (actualizado y ampliado recientemente), hicimos hincapié en que utilizar bien la IA requiere entender que la IA actual utiliza los datos para hacer predicciones estadísticas, y los humanos juzgan cuándo y cómo se debe utilizar la IA.
Esto no ha cambiado con la IA generativa. Sus aplicaciones dependen de los datos. Además, el juicio es parte integral de la selección de los datos, el entrenamiento de los modelos y la implementación general.
Los datos impulsan la IA
El la eficacia de las predicciones depende de los datos subyacentes. La calidad y la cantidad de los datos afectan significativamente a la precisión de las predicciones de la IA. A medida que los modelos de IA consumen enormes cantidades de datos, aprenden patrones y hacen predicciones cada vez más precisas. Cuanto más diversos, completos y relevantes sean los datos, mejor será el rendimiento de la IA.
[
Insight Center Collection
Collaborating with AI
How humans and machines can best work together.
](/insight-center/collaborating-with-ai)
Con la IA generativa, centrarse en la calidad de los datos es aún más importante. Los modelos generativos, como el GPT-4, se basan en amplios conjuntos de datos para producir productos coherentes y relevantes desde el punto de vista del contexto. A diferencia de la generación anterior de modelos de IA, la IA generativa crea contenido nuevo, por lo que es esencial garantizar que los datos utilizados para el entrenamiento son precisos y relevantes para el contexto de uso.
Los datos deficientes tienen consecuencias. El GPT-3.5 de OpenAI (el «ChatGPT» original) era conocido por generar «alucinaciones», o información incorrecta desde el punto de vista fáctico que parezca plausible. Por ejemplo, cuando se le pregunta por las afecciones médicas, a veces decía consejos médicos inexactos, lo que podría resultar perjudicial si se sigue. No tenía datos sobre los consejos adecuados y, en cambio, predijo el conjunto de palabras basándose en un gran corpus de texto que se leería como una respuesta adecuada. Como consecuencia, dio una respuesta que era a la vez confiado e incorrecto. Los modelos más recientes (por ejemplo, ChatGPT-4o) tienen menos alucinaciones, pero el problema no ha desaparecido. Si a una IA se le asigna una tarea demasiado alejada de sus datos subyacentes, puede fallar. A menudo se necesitan datos específicos del contexto para ajustar la IA a la aplicación en particular. Esto es algo que los programadores de ordenadores encuentran cuando intentan utilizar la IA para ayudar con tareas de codificación menos rutinarias.
La IA se basa en el juicio
Incluso más que los datos, el la implementación exitosa de la IA requiere buen juicio. El juicio es la recompensa por una acción en un entorno determinado. Implica saber qué predicciones hacer, los costes asociados a los diferentes tipos de errores y qué hacer con el resultado de la IA. La selección de datos y el entrenamiento de modelos también requieren juicio.
Si bien la IA es excelente en hacer predicciones y generar contenido, no puede reemplazar el juicio humano. Al detectar el fraude con tarjetas de crédito, una IA puede predecir la probabilidad de que una transacción en particular sea un fraude. Se necesita el juicio humano para entonces evaluar si se debe denegar la transacción. Con un 5% de probabilidades de fraude, es posible que un banco no quiera correr el riesgo de molestar a un cliente de alto valor y que considere que vale la pena correr el riesgo. Por otro lado, si la transacción es inusualmente grande, el banco podría rechazarla. La decisión requiere juicio, lo que implica conocer los beneficios y los costes de los diferentes tipos de errores.
Si bien las herramientas de IA generativa pueden parecer diferentes a las predicciones de fraude, los fracasos de las iniciativas de IA generativa son casi siempre errores de juicio. El generador de imágenes de Google ha producido imágenes de nazis no blancos y padres fundadores estadounidenses no blancos, lo que ha llevado a titulares negativos y críticas tanto por parte de izquierda y el correcto. No se trataba de un problema con los datos subyacentes. El problema parece haber sido con la forma en que los ingenieros entrenaron la máquina para producir diversas imágenes de personas.
A menudo vemos debates más amplios sobre las barreras implementadas por Google y OpenAI que limitan las aplicaciones o se puede percibir que tienen un sesgo político. Por ejemplo, algunos usuarios criticaron la moderación del contenido de OpenAI por ser demasiado restrictiva y potencialmente sesgada en contra de los puntos de vista conservadores. Cuando surgen estos desacuerdos, hay un conflicto entre el juicio del usuario y el juicio de las empresas de IA que crean las herramientas.
Para las empresas, esto abre una serie de problemas completamente nuevos. La IA generativa puede crear textos, imágenes e incluso vídeos realistas, lo que plantea cuestiones éticas complejas sobre la autenticidad, la desinformación y la propiedad intelectual. El juicio humano es indispensable para afrontar estos desafíos. Por ejemplo, las empresas que utilizan la IA generativa para el marketing o el servicio de atención al cliente deben asegurarse de que el contenido generado se ajusta a los valores de su marca y no engaña ni ofende a los clientes.
Juicio terminado lo que importa en una situación particular es fundamental para el uso exitoso de la IA generativa. Muchos negocios son automatizar las interacciones del servicio de atención al cliente con los chatbots. En contextos de bajo riesgo, funcionan bien. Los modelos generativos son buenos para proporcionar información sobre el horario de las tiendas. Sin embargo, el mismo chatbot puede fallar en situaciones de alto riesgo, como abordar las quejas delicadas de los clientes, en las que el juicio humano matizado es crucial. Air Canada lo descubrió cuando su chatbot dio una respuesta más humana a un viajero afligido (que podía esperar para solicitar un reembolso) que su propia política (que exigía la aprobación previa en el momento del duelo). Un toque personal (con buen juicio) podría haber evitado lo que terminó siendo un fracaso de relaciones públicas.
Las organizaciones con buen juicio prosperarán a medida que la IA se difunda. Con la IA generativa, esto es más importante ahora que nunca. La IA generativa permitirá a cada persona tener mucho más alcance y tomar muchas más medidas. La gente podrá enviar muchos más correos electrónicos, crear mucho más contenido y supervisar muchas más decisiones. En otras palabras, se ampliará el juicio de cada persona de la organización. Un empleado con un mal juicio tendrá el potencial de tener un impacto negativo mucho más grave en la organización.
Por lo tanto, garantizar que cada persona de la organización entiende perfectamente los valores de la organización para que se reflejen en su juicio será más importante que nunca. Elaborar este juicio no es sencillo. Exige entender los objetivos de la organización para que sus decisiones que implican concesiones reflejen los valores de la organización. Es necesario entender los riesgos más importantes en los que se despliega la IA. El éxito del despliegue de la IA requiere una cuidadosa previsión de lo que podría salir mal y una auditoría continua para evaluar las oportunidades y los riesgos. También requiere práctica: aprender de la experiencia de tomar decisiones y, luego, enfrentarse a las consecuencias.
• • •
La estrategia para el uso eficaz de la IA generativa requiere entender que las palabras e imágenes generadas se predicen a partir de los datos subyacentes. También requiere juicio: entender el coste relativo de los diferentes tipos de errores de predicción («lo que está en juego»). Al considerar un modelo de IA generativa estándar, es fundamental tener en cuenta si los datos y el juicio subyacentes al sistema de IA son adecuados para su empresa.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.