PathMBA Vault

Collaboration and teams

¿Pueden los algoritmos ayudarnos a decidir en quién confiar?

por David De Cremer, Jack McGuire, Yorck Hesselbarth, Ke Michael Mai

¿Pueden los algoritmos ayudarnos a decidir en quién confiar?

C. J. Burton/Getty Images

El uso de la inteligencia artificial (IA) y los algoritmos está aumentando en las organizaciones para gestionar los procesos empresariales, contratar empleados y automatizar la toma de decisiones organizacional rutinaria. No es de extrañar, ya que se ha demostrado que la aplicación de algoritmos lineales simples supera al juicio humano en cuanto a la precisión de muchas tareas administrativas. Una encuesta de Accenture de 2017 también reveló que el 85% de los ejecutivos quieren invertir más en tecnologías relacionadas con la IA en los próximos tres años.

A pesar de esta previsión, la realidad es que, al menos en algunos casos, los humanos muestran una fuerte aversión al uso de algoritmos autónomos. Por ejemplo, encuestas revelar que el 73% de los estadounidenses afirman que tienen miedo de viajar en un vehículo autónomo. Los médicos humanos también son preferido por los algoritmos en el contexto médico, a pesar de las pruebas de que los algoritmos a veces pueden ofrecer diagnósticos más precisos. Esta aversión crea situaciones laborales en las que la implementación de la IA conduce a un uso de los algoritmos por debajo del óptimo, ineficiente y sesgado. Así que, si la IA quiere convertirse en una importante herramienta de gestión en nuestras organizaciones, los algoritmos tienen que utilizarse como asesores de confianza para los responsables humanos de la toma de decisiones. También deberían ayudar a fomentar la confianza en la empresa.

Esta conclusión no ha pasado desapercibida en la comunidad empresarial. Empresas como Trust Science han lanzado algoritmos en el mercado que pueden ayudar a compilar perfiles de confiabilidad de personas y organizaciones. Pero, ¿realmente la IA posee esa habilidad «social»? Es importante hacer esta pregunta porque la confianza requiere habilidades socialmente sensibles que se perciban como exclusivamente humanas. De hecho, la capacidad única de entender las emociones y los deseos humanos es un requisito previo para juzgar la confiabilidad de una persona y es difícil parecerlo artificialmente. Entonces, ¿los responsables de la toma de decisiones humanas pueden aceptar los algoritmos que ofrecen consejos en esta área de la interacción humana?

Centro de información

Para examinar esta cuestión, realizamos un estudio experimental a través del sistema en línea ProLific Academic (ProA), que se ha ganado una reputación de proporcionar un alto nivel de calidad de datos. Analizamos las respuestas de un total de 136 participantes (68 mujeres y 66 hombres, una experiencia laboral media de 8,73 años), que participaron en una simulación en línea de una organización compuesta por tres niveles jerárquicos: empleados, mandos intermedios y altos directivos. A los participantes se les asignó un puesto de empleado y se les informó de que se asociarían con otra persona desconocida para trabajar en una tarea. Un buen desempeño aumentaría su presupuesto de trabajo.

Los participantes recibieron entonces información sobre esta persona, que era una puntuación de juicio que indicaba la confiabilidad de la persona. El nivel de confiabilidad de la persona podría determinarse de dos maneras. La primera forma consistía en una evaluación realizada por un algoritmo. Al explicar esta opción, se mostró a los participantes el sitio web de una empresa que vendía algoritmos desarrollados para dar consejos sobre la confiabilidad de las personas y se les explicó que este algoritmo se utilizaría en el experimento. Una segunda forma de evaluar el nivel de confiabilidad de la persona consistía en una conversación de 15 minutos entre el líder del estudio y la persona desconocida.

Nuestros resultados sugieren que la gente piensa que los humanos y los algoritmos son buenos para proporcionar diferentes tipos de información, incluso sobre en quién confiar. Los humanos son vistos como una mejor fuente de intuición, mejores habilidades sociales y mejores para adoptar la perspectiva de otra persona. Pero los algoritmos pueden proporcionar información sobre en quién confiar en los casos en que esa información sea menos intuitiva y más fáctica. En otras palabras, los participantes consideraron que los humanos poseían las habilidades más adecuadas necesarias para adoptar la perspectiva de otros humanos en las interacciones sociales que la IA. Para apoyar aún más esta idea, el algoritmo se consideró un enfoque más racional y menos intuitivo para evaluar la confiabilidad de las personas. Sin embargo, nuestros participantes también indicaron que si un algoritmo pudiera ofrecer información sobre la confiabilidad de una persona, esto no les haría sentir más inseguros sobre la fiabilidad, la autenticidad y la precisión de la información proporcionada en comparación con una persona que entrega esta información.

Así que, aunque se consideró que los humanos poseían las habilidades sociales necesarias para evaluar la confiabilidad de una persona, no creían que el uso de un algoritmo revelara información de confianza social menos fiable. Esta conclusión se vio respaldada aún más por la observación de que, cuando se les pidió a los participantes que indicaran qué método de evaluación preferían utilizar, la mayoría de los participantes optaron por utilizar la IA (61%) en lugar de los juicios del ser humano (un 39%).

Luego, los participantes fueron asignados al azar a una condición en la que el algoritmo o el experimentador humano determinaban la confiabilidad de su nuevo colega. También manipulamos el nivel de confiabilidad comunicado a los participantes haciendo que la mitad de los participantes recibieran información de que su nuevo compañero de trabajo tenía una alta confiabilidad, mientras que la otra mitad recibió información de que su pareja tenía una baja confiabilidad. Luego, los participantes fueron emparejados con su nuevo colega y se les exigió que jugaran un juego de confianza. Los participantes recibieron un presupuesto de trabajo de 10 unidades (cada unidad tenía un valor de 2 peniques) y tuvieron que decidir cuántas unidades querían transferir a su nuevo colega. El número de unidades enviadas se triplicó. Su colega decidió entonces cuánto devolvería. El número de unidades devueltas no se triplicó. Así que, al ampliar el presupuesto laboral, ambas partes pueden ganar más, pero esto solo podría lograrse si el participante estuviera dispuesto a confiar en su nuevo colega desde el principio.

Como era de esperar, los participantes transfirieron más unidades cuando el nuevo colega tenía una confiabilidad alta, en lugar de baja. Sorprendentemente, la fuente de la información de confiabilidad —algorítmica o humana— no influyó en el comportamiento de confianza de los participantes. Esta observación subraya aún más la idea de que la gente no considera que el método de evaluación racional de la IA sea menos adecuado que los humanos para evaluar la confiabilidad de una persona.

¿Cuáles son las implicaciones de estas conclusiones para las organizaciones?

En primer lugar, muchos proyectos de equipo suelen ser de naturaleza temporal y requieren unir a los empleados que aún no se conocen. En esos entornos, hay que fomentar la confianza rápidamente. La gente lo hace analizando los rasgos distintivos, como los antecedentes de una persona, la etiqueta del trabajo y otro tipo de información que sea fácil de escanear. Este tipo de creación de confianza no implica emociones y lleva a lo que se llama «confianza rápida». Nuestros hallazgos muestran que, para facilitar este tipo de información «cognitiva» sobre la confiabilidad, la IA presenta una herramienta de evaluación fiable y legítima. Además, el empleo de la IA para este tipo de evaluación rápida también reduce el tiempo necesario para que los empleados conozcan los antecedentes de los demás.

En segundo lugar, las habilidades sociales, como la toma de perspectiva, la intuición y la sensibilidad social, son requisitos previos para determinar la confiabilidad de una persona y se consideran exclusivamente humanas. Sin embargo, nuestros hallazgos indican que cuando se trata de iniciar una relación laboral con un colega, los algoritmos parecen aceptarse como igual de fiables.

Sin embargo, es importante recalcar que examinamos la fase inicial de una relación en la que las personas siguen siendo desconocidas. Investigación previa ha indicado que, en ese caso, las personas se basan más en la información de base cognitiva que se recopila de forma racional y, por lo tanto, menos emocional. Así que, la IA como fuente de información de confiabilidad parece adecuada para ser empleada en las etapas iniciales de una relación laboral. Sin embargo, cuando las relaciones se desarrollan, las personas dependen más de la información impulsada por las emociones, que la IA aún no es capaz de proporcionar. Por lo tanto, sostenemos que el impacto predictivo de los juicios humanos aumentará (y las evaluaciones de la IA disminuirán) en lo que respecta a fomentar relaciones laborales de confianza a largo plazo.

En tercer lugar, implementar el uso de la IA como asesores para promover culturas laborales de confianza implica que las organizaciones tendrán que formar humanos para supervisar esas culturas. Los supervisores tendrán que aprender a desarrollar un sentido de conciencia sobre cuándo es eficaz y cuándo no, a delegar las evaluaciones del clima laboral a un algoritmo. Por último, los supervisores también tendrán que aprender a comunicar la información de confiabilidad proporcionada por la IA a sus equipos de manera que no se ignore.