PathMBA Vault

Technology and analytics

Una forma mejor de incorporar la IA

por Boris Babic, Daniel L. Chen, Theodoros Evgeniou, Anne-Laure Fayard

Una forma mejor de incorporar la IA

En una encuesta del Workforce Institute realizada en 2018 a 3000 directivos de ocho países industrializados, la mayoría de los encuestados describió la inteligencia artificial como una valiosa herramienta de productividad.

Es fácil entender por qué: la IA aporta beneficios tangibles en cuanto a la velocidad, la precisión y la coherencia del procesamiento (las máquinas no cometen errores porque están cansadas), por lo que muchos profesionales confían ahora en ella. Algunos especialistas médicos, por ejemplo, utilizan herramientas de inteligencia artificial para ayudar a hacer diagnósticos y decisiones sobre el tratamiento.

Pero los encuestados también expresaron su temor de que la IA les quitara sus trabajos. No están solos. El Guardián informó recientemente de que más de 6 millones de trabajadores en el Reino Unido temen ser sustituidos por máquinas. Los académicos y ejecutivos que reunimos en conferencias y seminarios se hacen eco de estos temores. Las ventajas de la IA se pueden proyectar de una manera mucho más oscura: ¿Por qué se necesitarían los humanos cuando las máquinas pueden hacer un mejor trabajo?

La prevalencia de estos temores sugiere que las organizaciones que desean aprovechar los beneficios de la IA deben tener cuidado al presentarla a las personas que se espera que trabajen con ella. Andrew Wilson, hasta enero de 2020, CIO de Accenture, afirma: «Cuanto mayor sea el grado de enfoque organizacional en las personas que ayudan a la IA y en que la IA ayude a las personas, mayor será el valor obtenido». Accenture ha descubierto que cuando las empresas dejan claro que utilizan la IA para ayudar a las personas y no para sustituirlas, superan con creces a las empresas que no se fijan ese objetivo (o no tienen claros sus objetivos de IA) en la mayoría de los aspectos de la productividad gerencial, en particular la velocidad, la escalabilidad y la eficacia de la toma de decisiones.

En otras palabras, al igual que cuando nuevos talentos se unen a un equipo, la IA debe configurarse para triunfar y no para fracasar. Un empleador inteligente forma a los nuevos empleados asignándoles tareas sencillas que les permiten adquirir experiencia práctica en un contexto no crítico y les asigna mentores para ofrecerles ayuda y asesoramiento. Esto permite a los recién llegados aprender mientras que otros se centran en tareas de mayor valor. A medida que adquieren experiencia y demuestran que pueden hacer su trabajo, sus mentores confían cada vez más en ellos como cajas de resonancia y les confían decisiones más importantes. Con el tiempo, el aprendiz se convierte en socio y aporta habilidades y perspicacia.

null Jean-Baptiste Perrot

Creemos que este enfoque también puede funcionar para la inteligencia artificial. En las páginas siguientes, nos basamos en nuestras investigaciones y consultorías propias y ajenas sobre la implementación de la IA y los sistemas de información, junto con estudios organizativos sobre la innovación y las prácticas laborales, para presentar un enfoque en cuatro fases para la implementación de la IA. Permite a las empresas cultivar la confianza de las personas, una condición clave para la adopción, y trabajar en pos de un sistema cognitivo distribuido entre humanos y IA en el que las personas y la IA ambos mejorar continuamente. Muchas organizaciones han experimentado con la fase 1 y algunas han pasado a las fases 2 y 3. Por ahora, la fase 4 puede ser sobre todo un ejercicio de «proyección del futuro» del que veamos algunas señales tempranas, pero es factible desde una perspectiva tecnológica y proporcionaría más valor a las empresas a medida que utilizan la inteligencia artificial.

Fase 1: El asistente

Esta primera fase de la incorporación de la inteligencia artificial es más bien como el proceso de formación de un asistente. Enseña al nuevo empleado algunas reglas fundamentales y le entrega algunas tareas básicas, pero que consumen mucho tiempo, que normalmente realiza (como rellenar formularios en línea o resumir documentos), lo que le permite centrarse en los aspectos más importantes del trabajo. El aprendiz aprende observándolo, realizando las tareas y haciendo preguntas.

Una tarea común de los asistentes de IA es clasificar los datos. Un ejemplo son los sistemas de recomendación que las empresas utilizan desde mediados de la década de 1990 para ayudar a los clientes a filtrar miles de productos y encontrar los más relevantes para ellos. Amazon y Netflix están entre los líderes en esta tecnología.

Cada vez más decisiones empresariales requieren este tipo de clasificación de datos. Cuando, por ejemplo, los gestores de carteras eligen acciones en las que invertir, la información disponible es mucho mayor de la que una persona puede procesar de manera factible, y cada vez aparece nueva información que se suma al registro histórico. El software puede hacer que la tarea sea más gestionable al filtrar inmediatamente las acciones para cumplir con los criterios de inversión predefinidos. El procesamiento del lenguaje natural, por su parte, puede identificar las noticias más relevantes para una empresa e incluso evaluar la opinión general sobre un próximo evento corporativo, tal como se refleja en los informes de los analistas. Marble Bar Asset Management (MBAM), una firma de inversiones con sede en Londres fundada en 2002, es una de las primeras en convertirse en una de las primeras en utilizar estas tecnologías en el lugar de trabajo. Ha desarrollado una plataforma de última generación, llamada RAID (base de datos de análisis e información de investigación), para ayudar a los gestores de carteras a filtrar grandes volúmenes de información sobre eventos corporativos, noticias y movimientos bursátiles.

La IA es muy útil a la hora de tomar decisiones de gran volumen, cuando los humanos pueden estar cansados.

Otra forma en que la IA puede ayudar es modelar lo que podría hacer un humano. Como habrá notado cualquiera que utilice Google, aparecen mensajes al escribir una frase de búsqueda. El texto predictivo en un teléfono inteligente ofrece una forma similar de acelerar el proceso de escritura. Este tipo de modelado de usuarios, relacionado con lo que a veces se llama arranque crítico, se desarrolló hace más de 30 años; se puede aplicar fácilmente a la toma de decisiones. La IA la utilizaría para identificar la elección que tiene más probabilidades de tomar un empleado, dadas las elecciones anteriores del empleado, y sugeriría esa elección como punto de partida cuando el empleado se enfrente a múltiples decisiones, es decir, acelerar el trabajo, en lugar de hacerlo realmente.

Analicemos esto en un contexto específico. Cuando los empleados de la aerolínea deciden la cantidad de comida y bebida que van a incluir en un vuelo determinado, rellenan los pedidos de catering, que implican un cálculo determinado y suposiciones basadas en su experiencia en vuelos anteriores. Tomar las decisiones equivocadas conlleva costes: la falta de pedidos corre el riesgo de molestar a los clientes, que podrían evitar viajar en el futuro en la aerolínea. Hacer pedidos excesivos significa que el exceso de comida se desperdiciará y el avión habrá aumentado su consumo de combustible innecesariamente.

Un algoritmo puede resultar muy útil en este contexto. La IA puede predecir lo que pediría el gerente de catering de la aerolínea analizando sus elecciones anteriores o utilizando las reglas establecidas por el gerente. Esta «autocumplimentación» de los «pedidos recomendados» se puede personalizar para cada vuelo con todos los datos históricos pertinentes, incluido el consumo de comida y bebida en la ruta en cuestión e incluso el comportamiento de compra anterior de los pasajeros en el manifiesto de ese vuelo. Pero al igual que ocurre con la escritura predictiva, los usuarios humanos pueden sobrescribir libremente según sea necesario; siempre están en el asiento del conductor. La IA simplemente les ayuda imitando o anticipando su estilo de decisión.

No debería ser exagerado para los gerentes trabajar con la IA de esta manera. Ya lo hacemos en nuestra vida personal, cuando permitimos que la función de autocompletar rellene los formularios en línea. En el lugar de trabajo, el gerente puede, por ejemplo, definir reglas específicas que un asistente de IA debe seguir al rellenar los formularios. De hecho, muchas herramientas de software que se utilizan actualmente en el lugar de trabajo (como los programas de calificación crediticia) ya son precisamente eso: colecciones de reglas de decisión definidas por las personas. El asistente de IA puede refinar las reglas codificando las circunstancias en las que el gerente las sigue realmente. Este aprendizaje no tiene por qué implicar ningún cambio en el comportamiento del gerente, y mucho menos ningún esfuerzo por «enseñar» al asistente.

Fase 2: El monitor

El siguiente paso es configurar el sistema de IA para que proporcione comentarios en tiempo real. Gracias a los programas de aprendizaje automático, se puede entrenar a la IA para que pronostique con precisión cuál sería la decisión del usuario en una situación determinada (en ausencia de errores de racionalidad debido, por ejemplo, al exceso de confianza o a la fatiga). Si un usuario está a punto de tomar una decisión que no concuerda con su historial de elecciones, el sistema puede marcar la discrepancia. Esto es especialmente útil durante la toma de decisiones de gran volumen, cuando los empleados humanos pueden estar cansados o distraídos.

Las investigaciones en psicología, economía del comportamiento y ciencias cognitivas muestran que los seres humanos tienen una capacidad de razonamiento limitada e imperfecta, especialmente en lo que respecta a los problemas estadísticos y probabilísticos, que son omnipresentes en los negocios. Varios estudios (de los que uno de nosotros, Chen, es coautor) sobre las decisiones legales revelaron que los jueces conceden asilo político con más frecuencia antes de comer que después, que imponen penas de prisión más leves si su equipo de la NFL gana el día anterior que si pierde, y que tendrán menos problemas con el acusado el día del cumpleaños de este último. Está claro que la justicia se haría mejor si los responsables de la toma de decisiones humanas contaran con la ayuda de un software que les dijera cuándo una decisión que tienen previsto tomar es incompatible con sus decisiones anteriores o con la decisión que predeciría un análisis de variables puramente legales.

La IA puede ofrecer ese tipo de información. Otro estudio (también con Chen como coautor) mostró que los programas de IA que procesan un modelo compuesto por variables legales básicas (elaborados por los autores del estudio) pueden predecir las decisiones de asilo con una precisión aproximada del 80% en la fecha de apertura del caso. Los autores han añadido una función de aprendizaje al programa, que le permite simular la toma de decisiones de un juez individual basándose en las decisiones anteriores de ese juez.

El enfoque se traduce bien a otros contextos. Por ejemplo, cuando los gestores de carteras (PM) de Marble Bar Asset Management consideran tomar decisiones de compra o venta que pueden aumentar el riesgo general de la cartera (por ejemplo, al aumentar la exposición a un sector o región en particular), el sistema les alerta mediante una ventana emergente durante un proceso de transacción computarizado para que puedan ajustarse adecuadamente. El primer ministro puede ignorar esos comentarios siempre y cuando se respeten los límites de riesgo de la empresa. Pero en cualquier caso, los comentarios ayudan al Primer Ministro a reflexionar sobre sus decisiones.

Por supuesto, la IA no siempre es «correcta». A menudo, sus sugerencias no tienen en cuenta algunos datos privados y fiables a los que tiene acceso la persona que toma las decisiones, por lo que la IA podría desviar al empleado del rumbo en lugar de simplemente corregir posibles sesgos de comportamiento. Por eso usarlo debería ser como un diálogo, en el que el algoritmo dé empujones según los datos de que dispone, mientras que el humano enseña a la IA explicando por qué ha anulado un codazo en particular. Esto mejora la utilidad de la IA y preserva la autonomía de la persona que toma las decisiones.

Lamentablemente, muchos sistemas de IA están configurados para usurpar esa autonomía. Una vez que un algoritmo ha marcado una transacción bancaria como posible fraudulenta, por ejemplo, los empleados no suelen poder aprobar la transacción sin aprobarla con un supervisor o incluso con un auditor externo. A veces, deshacer la elección de una máquina es casi imposible, una fuente persistente de frustración tanto para los clientes como para los profesionales del servicio de atención al cliente. En muchos casos, los motivos de la elección de la IA son opacos y los empleados no están en condiciones de cuestionar esa elección incluso cuando se han cometido errores.

Por supuesto, la IA no siempre es «correcta». Por eso usarlo debería ser como un diálogo.

La privacidad es otro tema importante cuando las máquinas recopilan datos sobre las decisiones que toman las personas. Además de dar a los humanos el control en sus intercambios con la IA, debemos garantizar la confidencialidad de los datos que recopilen sobre ellos. Un muro debería separar al equipo de ingeniería de la dirección; de lo contrario, los empleados pueden preocuparse de que, si interactúan libremente con el sistema y cometen errores, puedan sufrir más adelante.

Además, las empresas deben establecer normas sobre el diseño y la interacción con la IA para garantizar la coherencia organizacional de las normas y prácticas. Estas reglas pueden especificar el nivel de precisión predictiva necesario para mostrar un empujón u ofrecer una razón para ello; los criterios para determinar la necesidad de un empujón; y las condiciones en las que el empleado debe seguir las instrucciones de la IA o remitirlas a un superior en lugar de aceptarlas o rechazarlas.

Para ayudar a los empleados a mantener su sentido del control en la fase 2, recomendamos a los gerentes y diseñadores de sistemas que los involucren en el diseño: que los contraten como expertos para definir los datos que se utilizarán y determinar la verdad fundamental; que se familiaricen con los modelos durante el desarrollo; y que les proporcionen formación e interacción a medida que se desplieguen esos modelos. Durante el proceso, los empleados verán cómo se crean los modelos, cómo se gestionan los datos y por qué las máquinas hacen las recomendaciones que hacen.

Fase 3: El entrenador

En una encuesta reciente de PwC, casi el 60% de los encuestados dijeron que les gustaría recibir comentarios sobre el desempeño de forma diaria o semanal. No es difícil entender por qué. Como afirmó Peter Drucker en su famoso Harvard Business Review artículo» «Gestionarse uno mismo», la gente generalmente no sabe en qué es buena. Y cuando creen que sí lo saben, normalmente se equivocan.

El problema es que la única manera de descubrir los puntos fuertes y las oportunidades de mejora es mediante un análisis cuidadoso de las decisiones y acciones clave. Eso requiere documentar las expectativas sobre los resultados y, luego, de nueve meses a un año después, comparar esas expectativas con lo que realmente ocurrió. Por lo tanto, los comentarios que reciben los empleados suelen provenir de superiores jerárquicos durante la revisión, no en el momento ni en el formato que elija el destinatario. Es lamentable, porque, como descubrió Tessa West, de la Universidad de Nueva York, en un reciente estudio de neurociencia estudio, cuantas más personas sientan que su autonomía está protegida y que tienen el control de la conversación (pueden elegir, por ejemplo, cuándo se dan comentarios), mejor responden a ellos.

La IA podría solucionar este problema. Las funciones que ya hemos mencionado podrían generar fácilmente comentarios para los empleados, lo que les permitiría analizar su propio desempeño y reflexionar sobre las variaciones y los errores. Un resumen mensual en el que se analicen los datos extraídos de su comportamiento anterior podría ayudarlos a entender mejor sus patrones y prácticas de decisión. Algunas empresas, sobre todo del sector financiero, están adoptando este enfoque. Los gestores de carteras de MBAM, por ejemplo, reciben comentarios de un sistema de análisis de datos que captura las decisiones de inversión a nivel individual.

null Jean-Baptiste Perrot

Los datos pueden revelar sesgos interesantes y variables entre los primeros ministros. Algunos pueden ser más reacios a las pérdidas que otros y que se aferren a inversiones con bajo rendimiento durante más tiempo del debido. Otros pueden tener un exceso de confianza y, posiblemente, ocupar una posición demasiado grande en una inversión determinada. El análisis identifica estos comportamientos y, como un entrenador, proporciona comentarios personalizados que destacan los cambios de comportamiento a lo largo del tiempo y sugieren cómo mejorar las decisiones. Pero son los primeros ministros los que deciden cómo incorporar los comentarios. La dirección de MBAM cree que esta «mejora de las operaciones» se está convirtiendo en un diferenciador fundamental que ayuda a desarrollar a los gestores de carteras y hace que la organización sea más atractiva.

Es más, así como un buen mentor aprende de las ideas de las personas a las que se está asesorando, un «robot entrenador» con aprendizaje automático aprende de las decisiones de un empleado humano empoderado. En la relación que hemos descrito, un humano puede estar en desacuerdo con el robot entrenador, y eso crea nuevos datos que cambiarán el modelo implícito de la IA. Por ejemplo, si un gestor de carteras decide no negociar una acción destacada por los recientes acontecimientos de la empresa, puede dar una explicación al sistema. Con los comentarios, el sistema captura continuamente datos que pueden analizarse para proporcionar información.

Si los empleados pueden identificarse y controlar los intercambios con la inteligencia artificial, es más probable que la vean como un canal seguro de comentarios que tiene como objetivo ayudar que para evaluar el desempeño. Elegir la interfaz correcta es útil para ello. En MBAM, por ejemplo, las herramientas de mejora de las operaciones (imágenes, por ejemplo) se personalizan para reflejar las preferencias del primer ministro.

Al igual que en la fase 2, es fundamental que los empleados participen en el diseño del sistema. Cuando la IA sea entrenadora, la gente tendrá aún más miedo al desempoderamiento. Puede parecer fácilmente tanto un competidor como un socio, ¿y quién quiere sentirse menos inteligente que una máquina? La preocupación por la autonomía y la privacidad puede ser aún mayor. Trabajar con un entrenador requiere honestidad, y la gente puede dudar en ser abierta con uno que pueda compartir datos poco halagadores con la gente de Recursos Humanos.

El despliegue de la IA de la manera descrita en las tres primeras fases tiene, por supuesto, algunos inconvenientes. A largo plazo, las nuevas tecnologías crean más puestos de trabajo de los que destruyen, pero mientras tanto los mercados laborales pueden verse gravemente perturbados. Es más, como sostiene Matt Beane en» Aprender a trabajar con máquinas inteligentes» (HBR, septiembre-octubre de 2019), las empresas que implementan la IA pueden dejar a los empleados con menos oportunidades de aprendizaje práctico y tutoría.

Cuando la IA es un entrenador, puede parecer fácilmente tanto un competidor como un socio.

Por lo tanto, existe cierto riesgo no solo de perder los puestos de nivel inicial (porque los asistentes digitales pueden reemplazar eficazmente a los humanos), sino también de comprometer la capacidad de los futuros responsables de la toma de decisiones de pensar por sí mismos. Sin embargo, eso no es inevitable. Como sugiere Beane, las empresas podrían utilizar su inteligencia artificial para crear diferentes y mejores oportunidades de aprendizaje para sus empleados y, al mismo tiempo, mejorar el sistema haciéndolo más transparente y dando a los empleados más control. Como los futuros miembros de la fuerza laboral habrán crecido en un lugar de trabajo entre humanos y máquinas, es casi seguro que serán más rápidos que sus colegas de antes de la IA a la hora de detectar oportunidades de innovar e introducir actividades que añadan valor y creen puestos de trabajo, lo que nos lleva a la fase final.

Fase 4: El compañero de equipo

Edwin Hutchins, antropólogo cognitivo, desarrolló lo que se conoce como la teoría de la cognición distribuida. Se basa en su estudio sobre la navegación de barcos, que, según demostró, implicaba una combinación de marineros, cartas, reglas, brújulas y una herramienta de trazado. La teoría se refiere en términos generales al concepto de mente extendida, que postula que el procesamiento cognitivo y los actos mentales asociados, como la creencia y la intención, no se limitan necesariamente al cerebro, ni siquiera al cuerpo. Las herramientas e instrumentos externos pueden, en las condiciones adecuadas, desempeñar un papel en el procesamiento cognitivo y crear lo que se conoce como sistema acoplado.

De acuerdo con esta idea, en la fase final del proceso de implementación de la IA (que hasta donde sabemos ninguna organización ha adoptado aún), las empresas desarrollarían una red combinada de humanos y máquinas en la que ambos aportarían su experiencia. Creemos que, a medida que la IA mejore mediante sus interacciones con los usuarios individuales, analizando e incluso modelando a los usuarios expertos basándose en datos sobre sus decisiones y comportamientos pasados, surgirá naturalmente una comunidad de expertos (humanos y máquinas) en las organizaciones que tengan robots de inteligencia artificial totalmente integrados. Por ejemplo, un gerente de compras que, con un clic en el momento de tomar la decisión, pudiera ver el precio que ofrecería otra persona podría beneficiarse de un grupo de expertos personalizado.

Aunque ya existe la tecnología para crear este tipo de inteligencia colectiva, esta fase está plagada de desafíos. Por ejemplo, cualquier integración de la IA de este tipo debe evitar generar sesgos antiguos o nuevos y debe respetar los problemas de privacidad de las personas para que las personas puedan confiar en la IA tanto como lo harían en un socio humano. Eso en sí mismo es un desafío bastante grande, dado el volumen de investigaciones que demuestran lo difícil que es generar confianza entre los humanos.

Los mejores enfoques para generar confianza en el lugar de trabajo se basan en la relación entre la confianza y la comprensión, un tema de estudio realizado por David Danks y sus colegas del Carnegie Mellon. Según este modelo, confío en alguien porque entiendo los valores, deseos e intenciones de esa persona y demuestra que se preocupa por mis intereses. Si bien la comprensión ha sido históricamente la base para generar confianza en las relaciones humanas, también es muy adecuado para cultivar las asociaciones entre humanos e IA, ya que el miedo de los empleados a la inteligencia artificial normalmente se basa en la falta de comprensión de cómo funciona la IA.

Cuando la IA pierde el rumbo

En 2016, la redacción de investigación ProPublica publicó una exposición sobre un programa de IA de

Para fomentar la comprensión, un desafío particular es definir qué significa «explicación», y mucho menos «buena explicación». Este desafío es el centro de muchos estudios. Por ejemplo, uno de nosotros (Evgeniou) está trabajando para abrir «cajas negras» del aprendizaje automático mediante las llamadas explicaciones contrafácticas. Una explicación contrafactual arroja luz sobre una decisión concreta de un sistema de IA (por ejemplo, aprobar el crédito para una transacción determinada) al identificar una breve lista de las características de la transacción que impulsaron la decisión de una forma u otra. Si alguna de las características hubiera sido diferente (o contraria al hecho), el sistema habría tomado una decisión diferente (se habría denegado el crédito).

Evgeniou también está explorando lo que la gente percibe como buenas explicaciones para las decisiones de la IA. Por ejemplo, ¿ven mejor una explicación cuando se presenta en términos de una combinación lógica de funciones («La transacción se aprobó porque tenía las características X, Y, Z») o cuando se presenta en relación con otras decisiones («La transacción se aprobó porque se parece a otras transacciones aprobadas y aquí están para que las vea»)? A medida que continúe la investigación sobre qué hace que la IA sea explicable, los sistemas de IA deberían ser más transparentes y, por lo tanto, facilitar la confianza.

CONCLUSIÓN

La adopción de nuevas tecnologías siempre ha sido un desafío importante, y cuanto más impacto tenga una tecnología, mayor será el desafío. Debido a su posible impacto, la inteligencia artificial puede percibirse como particularmente difícil de implementar. Sin embargo, si se hace con conciencia, la adopción puede ser bastante sencilla. Precisamente por eso las empresas deben asegurarse de que el diseño y el desarrollo de la IA son responsables, especialmente en lo que respecta a la transparencia, la autonomía de las decisiones y la privacidad, y de que hacen participar a las personas que trabajarán con ella. De lo contrario, temerán con razón que se vean limitados —o incluso reemplazados— por máquinas que toman todo tipo de decisiones de formas que no entienden.

Superar estos miedos para crear una relación de confianza con la IA es clave. En las cuatro fases descritas en estas páginas, los humanos determinan las reglas básicas. Con un diseño responsable, la IA puede convertirse en un verdadero socio en el lugar de trabajo, ya que procesa rápidamente grandes volúmenes de datos variados de manera coherente para mejorar la intuición y la creatividad de los humanos, que a su vez enseñan a la máquina.

Nota del editor: Theodoros Evgeniou es asesor de Marble Bar Asset Management (una firma de inversiones que aparece en este artículo).