PathMBA Vault

AI and machine learning

Adoptar la IA de generación en el trabajo

por H. James Wilson, Paul R. Daugherty

Adoptar la IA de generación en el trabajo

Hoy en día, casi cualquier persona puede aprovechar la inteligencia artificial, utilizando comandos en el lenguaje cotidiano en lugar de código. Pronto transformará más del 40% de toda la actividad laboral, según la investigación de los autores. En esta nueva era de colaboración entre humanos y máquinas, la capacidad de aprovechar la IA de forma eficaz será fundamental para su éxito profesional. Este artículo describe los tres tipos de «habilidades de fusión» que necesita para obtener los mejores resultados con la IA de la generación. Interrogatorio inteligente implica dar instrucciones a los grandes modelos lingüísticos para que funcionen de manera que generen mejores resultados, por ejemplo, dividiendo los procesos en pasos o visualizando varios posibles caminos hacia una solución. Integración de juicios consiste en incorporar el discernimiento humano ético y experto para que los resultados de la IA sean más fiables, fiables y precisos. Implica aumentar las fuentes de formación de una modelo con bases de conocimientos acreditadas cuando sea necesario, mantener los sesgos alejados de las indicaciones, garantizar la privacidad de cualquier dato utilizado por las modelos y analizar la información sospechosa. Con aprendizaje recíproco, adapta la IA de generación al contexto empresarial específico de su empresa al incluir datos organizativos y conocimientos exhaustivos en las órdenes que le da. A medida que lo hace mejor, usted mismo aprende a entrenar a la IA para abordar desafíos más sofisticados. La revolución de la IA ya está aquí. Aprender estas tres habilidades lo preparará para prosperar en ellas.

Se espera que la inteligencia artificial generativa transforme radicalmente todo tipo de puestos de trabajo en los próximos años. Ya no es competencia exclusiva de los tecnólogos, la IA la puede poner en práctica casi cualquier persona, utilizando comandos en el lenguaje cotidiano en lugar de código. Según nuestra investigación, la mayoría de las funciones empresariales y más del 40% de toda la actividad laboral de EE. UU. se pueden aumentar, automatizar o reinventar con la IA de generación. Se espera que los cambios tengan el mayor impacto en los sectores legal, bancario, de seguros y del mercado de capitales, seguidos del comercio minorista, los viajes, la salud y la energía.

Para las organizaciones y sus empleados, este cambio que se avecina tiene enormes implicaciones. En el futuro, muchos de nosotros descubriremos que nuestro éxito profesional depende de nuestra capacidad para obtener los mejores resultados posibles de los grandes modelos lingüísticos (LLM), como ChatGPT, y de aprender y crecer junto con ellos. Para sobresalir en esta nueva era de colaboración entre la IA y los humanos, la mayoría de las personas necesitarán una o más de las que denominamos «habilidades de fusión»: interrogatorio inteligente, integración de sentencias, y aprendizaje recíproco.

Interrogatorio inteligente implica impulsar a los LLM (o, en términos sencillos, darles instrucciones) de manera que se produzcan un razonamiento y unos resultados considerablemente mejores. En pocas palabras, es la habilidad de pensar con la IA. Por ejemplo, un representante del servicio de atención al cliente de una empresa de servicios financieros podría utilizarla para buscar la respuesta a una consulta complicada de un cliente; un científico farmacéutico, para investigar los compuestos farmacológicos y las interacciones moleculares; un vendedor, para extraer conjuntos de datos y encontrar precios minoristas óptimos.

Integración de juicios consiste en aportar su discernimiento humano cuando un modelo de IA de generación no está seguro de qué hacer o carece del contexto empresarial o ético necesario en su razonamiento. La idea es hacer que los resultados de las interacciones entre humanos y máquinas sean más fiables. La integración de los juicios requiere detectar dónde, cuándo y cómo intervenir, y su eficacia se mide en función de la fiabilidad, la precisión y la explicabilidad del resultado de la IA.

Con aprendizaje recíproco, usted ayuda a la IA a conocer las tareas y necesidades de su empresa incorporando datos enriquecidos y conocimientos organizativos en las instrucciones que le da y, por lo tanto, la entrena para que sea su cocreador. Es la habilidad de adaptar la IA de la generación al contexto empresarial específico de su empresa para que pueda lograr los resultados que desea. A medida que lo hace, usted mismo aprende a entrenar a la IA para abordar desafíos más sofisticados. El aprendizaje recíproco, que alguna vez fue una capacidad que solo necesitaban los científicos de datos y los expertos en análisis para crear modelos de datos, se ha vuelto cada vez más crucial en funciones no técnicas.

¿Por qué necesita desarrollar sistemáticamente estas nuevas habilidades de pensamiento, generar confianza y confección? La investigación empírica demuestra consistentemente que las instrucciones ad hoc (la forma en que la mayoría de los empleados solicitan un LLM hoy en día) conducen a resultados poco fiables o deficientes, especialmente en tareas de razonamiento complejas. Esto es cierto en todas las funciones, desde el servicio de atención al cliente hasta el marketing, la logística y la I+D. Es fundamental que todos seamos más rigurosos en el uso de la IA de generación en el trabajo. En este artículo explicaremos cómo.

Interrogar a la IA de forma inteligente

¿Cómo se mejora la producción de un sistema enormemente complejo, como un LLM, que se basa en montañas de datos y se basa en las probabilidades en lugar de en la lógica humana? Hay varias técnicas que puede utilizar.

Piense paso a paso.

Al impulsar la IA de la generación, tiene que desglosar el proceso que debe seguir en sus partes constituyentes y, luego, esforzarse por optimizar cada paso, tal como lo hizo la primera ola de gestión científica en la fabricación industrial. Sin embargo, el proceso de la IA no implica una línea de montaje, sino una cadena de pensamiento a través de la cual se busca un resultado. Los estudios han demostrado que cuando las herramientas de IA de la generación reciben instrucciones para desglosar las tareas de razonamiento de esta manera, su rendimiento mejora drásticamente. Esto es particularmente cierto en el caso de los problemas más difíciles, como ha demostrado Jason Wei, el investigador de OpenAI que exploró por primera vez el razonamiento en cadena.

De hecho, añadir la sencilla frase «Pensemos paso a paso» a las instrucciones de un LLM puede aumentar la precisión de su salida más del triple en una variedad de tareas, desde matemáticas hasta razonamiento estratégico. Supongamos que su mensaje de IA de generación es el siguiente: «Mi departamento tiene un presupuesto de 500 000 dólares. Hemos gastado un 20% en equipo y hemos asignado un 30% a una nueva contratación. Acabamos de recibir un aumento presupuestario de 50 000 dólares. ¿Cuál es el presupuesto que nos queda? Pensemos paso a paso». El modelo saldrá: «Al principio, su departamento tenía 500 000 dólares. Gastó un 20%, o 100 000 dólares, en equipo, dejando 400 000 dólares. Usted destina el 30%, o 150 000 dólares, a una nueva contratación, lo que reduce el presupuesto a 250 000 dólares. Por último, recientemente recibió un aumento presupuestario de 50 000 dólares. Su presupuesto restante es de 300 000 dólares». Si bien la mayoría de la gente podría hacer estos cálculos mentales, el punto es que se puede hacer que los LLM (que funcionan mucho más rápido) detallen su trabajo en problemas cuantitativos que son mucho más complejos, como encontrar la ruta más corta posible para que un representante de ventas vaya a varias ciudades. Esto crea una cadena de razonamiento rastreable (en lugar de arrojar una respuesta al final de un proceso de caja negra) que le permite verificar la precisión de los resultados.

Forme un LLM por etapas.

Para la colaboración entre humanos y máquinas en tareas complejas que requieren experiencia ocupacional y de dominio, como el derecho, la medicina, la I+D científica o la gestión del inventario, puede introducir la IA en el trabajo por etapas para generar mejores resultados.

Por ejemplo, los investigadores del MIT Tyler D. Ross y Ashwin Gopinath estudiaron recientemente la posibilidad de desarrollar un «científico de la IA» capaz de integrar una variedad de datos experimentales y generar hipótesis comprobables. Descubrieron que ChatGPT 3.5 Turbo podía ajustarse con precisión para aprender la biofísica estructural del ADN cuando los investigadores dividieron esa complicada tarea en una serie de subtareas para que el modelo la dominara. En un área no científica, como la gestión del inventario, las fases de las subtareas pueden incluir la previsión de la demanda, la recopilación de datos sobre los niveles de inventario, las proyecciones de los pedidos repedidos, la evaluación de la cantidad de los pedidos y la evaluación del rendimiento. Para cada subtarea sucesiva, los gerentes entrenaban, probaban y validaban el modelo con su experiencia e información en el campo.

Explore de forma creativa con un LLM.

Muchos procesos de trabajo, desde el diseño de la estrategia hasta el desarrollo de nuevos productos, son abiertos e iterativos. Para aprovechar al máximo la interacción entre humanos y IA en estas actividades, es necesario guiar a las máquinas para que visualicen los múltiples caminos posibles hacia una solución y para que respondan de manera menos lineal y binaria.

Este tipo de interrogatorio inteligente puede aumentar la capacidad de los LLM de producir predicciones precisas sobre acontecimientos financieros y políticos complejos, como han demostrado recientemente los investigadores Philipp Schoenegger, Philip Tetlock y sus colegas. Emparejaron a pronosticadores humanos con asistentes del GPT-4 que habían sido preparados con indicaciones muy detalladas para ser «superpronosticadores», para asignar intervalos de probabilidad e incertidumbre a los posibles resultados y ofrecer argumentos a favor y en contra de cada uno de ellos. Los investigadores descubrieron que las predicciones hechas por esos asistentes (sobre todo, desde el valor de cierre del Dow Jones Transportation Average en una fecha determinada hasta el número de migrantes que entraban en Europa por el mar Mediterráneo en diciembre de 2023) eran un 43% más precisas que las predicciones generadas por los LLM sin preparación.

Incorporando su juicio

Incorporar el discernimiento humano experto (y ético) a la ecuación será fundamental para generar resultados de IA que sean fiables, precisos y explicables y que tengan una influencia positiva en la sociedad. Estas son algunas técnicas que puede utilizar:

Integrar RAG.

Los LLM no solo pueden alucinar, sino que la información y los conjuntos de datos en los que se entrenan suelen tener muchos años. Cuando se trabaja con un LLM, la gente debe tomar decisiones con frecuencia sobre hasta qué punto la información fiable, relevante y actualizada de los resultados será fundamental. Si lo están, puede utilizar la generación aumentada (RAG) de recuperación para añadir información de bases de conocimiento acreditadas a las fuentes de formación de un LLM estándar. Hacerlo puede ayudar a evitar información errónea, respuestas anticuadas e imprecisiones. Un investigador farmacéutico, por ejemplo, podría utilizar la RAG para acceder a las bases de datos del genoma humano, las publicaciones recientes en revistas científicas, las bases de datos que cubren la investigación preclínica y las directrices de la FDA. Para configurar RAG, las personas suelen necesitar la ayuda de sus equipos de TI, que pueden decirles si se ha integrado o se puede integrar en su flujo de trabajo para añadir un nivel adicional de calidad a su trabajo.

Proteja la privacidad y evite los prejuicios.

Si utiliza datos confidenciales o información exclusiva en sus solicitudes de IA, solo deben utilizarse modelos aprobados por la empresa detrás de los firewalls corporativos, nunca LLM públicos o de código abierto. Si la política corporativa lo permite, usted puede utilizar información privada cuando las condiciones del servicio de la interfaz de programación de aplicaciones de un LLM especifican que no se conservará para la formación de modelos.

Preste atención a los sesgos que pueda incluir en sus indicaciones. Por ejemplo, un analista financiero que pide a un máster que explique cómo el informe trimestral de ayer indica que la empresa está preparada para un ciclo de crecimiento de cinco años muestra sesgo reciente, la tendencia a sobredimensionar la información más reciente a la hora de predecir los acontecimientos futuros.

Salida ciega

Los proveedores de LLM están buscando formas de ayudar a los usuarios a contrarrestar esos problemas. Microsoft y Google están añadiendo funciones que ayudan a los usuarios a comprobar si hay indicaciones y respuestas dañinas. Salesforce ha desarrollado una arquitectura de IA que oculta cualquier dato confidencial de los clientes al crear avisos; impide que esos datos se compartan con LLM de terceros; puntúa los resultados en función de riesgos como la toxicidad, el sesgo y la privacidad; y recopila comentarios sobre la mejora de las plantillas de avisos. Sin embargo, al final del día, es usted, el humano en el circuito, el que más importará su juicio.

Analice la información sospechosa.

Manténgase alerta máxima ante las alucinaciones y los errores, que según las investigaciones actuales son inevitables incluso con intervenciones importantes de ingeniería de datos y de otro tipo. Cuando los usuarios de LLM encuentran un resultado que parece incorrecto, a menudo, por reflejo, incitan al modelo a intentarlo una y otra vez, disminuyendo gradualmente la calidad de la respuesta, como la Universidad de California en Berkeley los investigadores Jinwoo Ahn y Kyuseung Shin han demostrado . Los investigadores recomiendan que, en su lugar, identifique el paso en el que la IA cometió un error y que un LLM diferente lo lleve a cabo, dividiéndolo primero en problemas individuales más pequeños, y luego utilice el resultado para ajustar el primer LLM. Imagínese a un científico que utilizara ChatGPT de OpenAI para ayudar a desarrollar un nuevo polímero con una serie de cálculos paso a paso. Si encuentra un error en algún punto de la cadena, puede pedirle a Claude, de Anthropic, que divida ese escalón en subproblemas más pequeños y le explique su razonamiento. Entonces puede introducir esa información en ChatGPT y pedirle que afine su respuesta. En esencia, esta técnica aplica los principios de la cadena de pensamiento a la corrección del resultado que usted considera incorrecto.

Convertir la IA en su aprendiz

A medida que aumentan el tamaño y la complejidad de los LLM, pueden exhibir «propiedades emergentes», nuevas y poderosas habilidades, como el razonamiento avanzado, para las que no están entrenados, pero que, sin embargo, aparecen después de adaptar los LLM dándoles datos o conocimientos contextuales. Para impulsar su desarrollo, puede tomar las siguientes medidas.

Proporcione al modelo «demostraciones de pensamiento».

Antes de darle a un LLM un problema que resolver, puede prepararlo para que piense de una manera determinada. Por ejemplo, puede enseñarle el razonamiento de «menos a la mayoría» y mostrarle a la IA cómo dividir un desafío complejo en varios desafíos más pequeños y simples; abordar primero el menos difícil; utilizar la respuesta como base para resolver el siguiente desafío, etc. Denny Zhou y sus colegas de Google DeepMind han demostrado que el enfoque de menos a más mejora la precisión de los resultados de la IA del 16 al 99%.

Piense en un director de marketing de una marca de ropa deportiva que quiera ayuda para pensar en una nueva línea. Él puede analizar el problema para el LLM de esta manera:

  1. Público. Identifique a los entusiastas del fitness que serían clientes potenciales, una tarea relativamente fácil, especialmente para una modelo que se ha formado con los datos de los clientes de la empresa.
  2. Mensajería. Cree mensajes que hagan hincapié en la interpretación, la comodidad y el estilo, un problema más desafiante y creativo que se basa en la identificación previa del público.
  3. Canales. Elija las redes sociales, los blogs de acondicionamiento físico y las asociaciones con personas influyentes que ayuden a hacer llegar esos mensajes a la audiencia.
  4. Recursos. Asigne el presupuesto (a menudo el tema más polémico de cualquier organización) según los canales elegidos.

Forme sus LLM para que aprendan nuevos procesos.

Puede enseñar a la IA a realizar una tarea explicándola con una serie de ejemplos dentro de un contexto siguiendo sus instrucciones. Esto se denomina «aprendizaje en contexto» y le permite adaptar los LLM preentrenados, como GPT-4, Claude y Llama, sin el proceso, a veces laborioso, de ajustar sus parámetros. Por ejemplo, los investigadores informaron en La naturaleza eso A los LLM se les mostró cómo resumir la información médica pidiéndoles ejemplos de informes de radiología, preguntas de los pacientes, notas de progreso y diálogos entre el médico y el paciente. Después, descubrieron que el 81% de los resúmenes producidos por los LLM eran equivalentes o superiores a los resúmenes generados por humanos.

También puede formar un LLM proporcionándole información contextual y, a continuación, haciéndole preguntas hasta que resuelva su problema. Pensemos en dos firmas de software, que buscan aumentar las ventas. En la primera empresa, el equipo de ventas se ha esforzado por predecir de forma eficaz la demanda de licencias de software. Así que su líder empieza por proporcionar al LLM datos históricos de ventas y, después, pregunta por la demanda prevista para el próximo trimestre. Luego, proporciona al modelo información sobre las actualizaciones de las funciones del software y los presupuestos anuales de los clientes y le pregunta por los efectos de la estacionalidad. Por último, le da estadísticas detalladas de los sistemas CRM y los informes de marketing y le pregunta por el impacto de las campañas de marketing en las ventas.

En la segunda empresa, el equipo de ventas quiere mejorar la selección de clientes. Su líder podría proporcionar datos financieros específicos y solicitar un LLM para clasificar a los clientes según su contribución a los ingresos y, a continuación, avanzar a las consultas de seguimiento sobre el alcance geográfico, las bases de clientes, la experiencia técnica, etc. En cada paso, ambos ejecutivos forman el LLM y refinan su capacidad para realizar la tarea en el contexto de la estrategia de ventas particular de la empresa. Aportan conocimientos organizativos e industriales a las interacciones. A medida que el LLM utilizado por cada uno acumula más experiencia con el proceso de venta específico de la empresa, genera mejores respuestas.

hbr_ideacast

Podcast Series

HBR IdeaCast

A weekly podcast featuring the leaders in business and management.

Subscribe On:

El aprendizaje recíproco se produce a medida que los usuarios pasan de usar preguntas o instrucciones sencillas a describir gradualmente la tarea con más y más complejidad y matices. Pueden añadir contexto, ajustar la redacción y ver cómo responde la modelo, haciendo experimentos hasta lograr los resultados deseados.

Adquirir nuevas habilidades de fusión

La adquisición generalizada de habilidades de IA de la generación requerirá no solo una inversión significativa por parte de las organizaciones, sino también la iniciativa individual, el estudio y el arduo trabajo. Aunque algunas empresas ofrecen una formación adecuada, la mayoría aún no ha desarrollado programas sólidos. De hecho, en nuestra encuesta de 2024 a 7 000 profesionales, descubrimos que, si bien el 94% dijo que estaba preparado para aprender nuevas habilidades para trabajar con la IA de la generación, solo el 5% informó de que sus empleadores estaban formando activamente a sus fuerzas laborales en ella a una escala significativa. Muchos de ustedes tendrán que tomar el asunto en sus propias manos y mantenerse al día con los rápidos avances de los LLM y la investigación de alto nivel que se traduce en prácticas para una variedad de trabajos e industrias. Puede inscribirse en cursos en línea de proveedores como Coursera, Udacity (que nuestra firma ha adquirido recientemente), la Universidad de Texas en Austin, la Universidad Estatal de Arizona y la Universidad de Vanderbilt; experimentar con las técnicas de incitación que hemos discutido y con las emergentes; e impulsar a sus empleadores a que les den más oportunidades de utilizar el LLM junto con la enseñanza de las mejores prácticas para ellos.

A continuación: adquirir las habilidades para hacer cadenas de pensamiento que impulsen los flujos de trabajo de las agencias y modelos lingüísticos grandes (MLLM) multimodales, que integra diferentes tipos de datos, como texto, audio, vídeo e imágenes, y también proporciona salidas en esos formatos. Un grupo de investigadores ha descubierto que cadena de pensamiento que impulsa la mejora de los MLLM‘rendimiento de hasta un 100%. Los primeros en adoptarlos ya están probando estos métodos, pero aún no están lo suficientemente maduros como para una adopción generalizada.

La revolución de la IA no llega; ya está aquí, y las principales empresas utilizan la tecnología para reimaginar los procesos en todos los sectores, funciones y puestos. La generación de IA ha subido drásticamente el listón, lo que nos ha obligado a pensar con la IA, asegúrese de que confiar eso, y continuamente sastre eso, y nosotros, para rendir mejor. Aunque la IA de generación forma parte del movimiento extendido para crear relaciones más simbióticas entre los humanos y las máquinas, también es única en la historia de la tecnología. Ninguna otra innovación importante en la historia ha despegado tan rápido. El trabajo de conocimiento está a punto de transformarse más rápida y poderosamente de lo que muchos de nosotros podemos imaginar. Prepárese. El futuro de los negocios lo impulsará no solo la IA de la generación, sino las personas que sepan cómo utilizarla de la manera más eficaz.