Los empleados no confiarán en la IA si no confían en sus líderes
por David De Cremer

Según Las predicciones de IA de PwC para 2025, la inteligencia artificial (IA) es el factor principal que cambia radicalmente la forma de hacer negocios y crear valor este año. La IA se está integrando rápidamente en la forma en que los empleados ejecutan las tareas principales de las organizaciones de todos los sectores, desde la racionalización del servicio de atención al cliente hasta el apoyo a la toma de decisiones y la mejora de la eficiencia. Esta tecnología también está a punto de cambiar la forma en que se gestiona a los trabajadores. Los sistemas y agentes de IA son cada vez más capaces de supervisar el flujo de trabajo y la forma en que los empleados y la IA trabajan juntos en esas tareas.
Sin embargo, si bien el porcentaje de organizaciones que adoptan la IA pasó del 55% en 2023 al 78% en 2024, según McKinsey, sin embargo, los empleados muestran significativamente menos entusiasmo sobre el uso de la IA en sus actividades diarias. Esto plantea una pregunta importante: ¿Los empleados confían en estas tecnologías? Confianza afecta directamente a la exitosa adopción de la IA, que influye en la productividad, el compromiso y la voluntad de los empleados de adoptar los cambios y la supervisión impulsados por la IA.
Las pruebas sugieren que la confianza escasea. En una encuesta reciente de Pew Research, los encuestados dijeron que se sentían reticentes con respecto a la inteligencia artificial: el 52% dijo sentirse «preocupado» por el impacto de la IA en el lugar de trabajo y el 33% dijo sentirse «abrumado», en comparación con el 36% que se describió a sí mismo como «esperanzado». A nivel mundial, Edelman encontró que el 35% de los encuestados dijeron que rechazaban la IA frente al 30% que la adoptaba. Según otro Encuesta de Pew Research, el 71% de los estadounidenses se opuso a que las empresas utilizaran la IA para tomar las decisiones finales de contratación y el 61% se opuso a utilizarla para rastrear los movimientos de los trabajadores. UN encuesta reciente de BCG descubrió que, entre los encuestados que utilizaban habitualmente la IA generativa, aproximadamente la mitad creía que su trabajo podría desaparecer en la próxima década. Al menos parte de esta desconfianza tiene una base razonable: según La reciente encuesta sobre IA responsable de PwC, solo el 58% de las empresas han completado una evaluación preliminar de los riesgos de la IA en su organización.
Reciente investigación de gestión también ha demostrado que una de las principales razones por las que los empleados no confían en la IA es porque consideran que estas herramientas carecen de benevolencia a la hora de hacer recomendaciones y decisiones, y se preocupan de que la IA «se preocupe» y tenga en cuenta los intereses de los empleados. La benevolencia —la voluntad de adoptar una orientación positiva para servir a los intereses de otra persona interdependiente— es un concepto importante en este caso porque representa la característica fundamental del fideicomisario (la IA en este caso) de hacer el bien al fideicomitente (los empleados en este caso) como base para que surja la confianza.
Estas preocupaciones de los empleados también envían una señal a los líderes de la organización de que también puede faltar confianza en ellos. Al fin y al cabo, la opinión en torno a la IA también refleja lo que piensan los trabajadores con respecto al liderazgo: cómo creen que los líderes utilizarán estas herramientas y su fe en las motivaciones de los líderes para implementar la IA. Los empleados quieren saber si la adopción de la IA promoverá sus intereses o provocará su despido; si aumentará o sustituirá sus contribuciones.
A medida que las organizaciones se plantean integrar los sistemas de IA en su gestión y toma de decisiones, tienen que preguntarse cómo la IA moldeará la forma en que los empleados perciben la benevolencia. Al pensar en esto, deberían considerar cómo estos sistemas podrían afectar a las experiencias de los empleados y a su forma de ver su trabajo, y qué papel debe desempeñar la dirección a la hora de mediar en las recomendaciones de la IA para abordar las preocupaciones de los empleados.
La IA y la capacidad de ser benévolo
Los sistemas de IA son cada vez más expertos en reconocer los patrones de las interacciones humanas. Esta capacidad es lo que hace que funcionen de forma (semi) autónoma en áreas como el servicio de atención al cliente, las recomendaciones personalizadas y la gestión del flujo de trabajo. Al analizar vastos conjuntos de datos del comportamiento humano (que incluyen datos de texto, voz e incluso gestos), los sistemas de IA pueden hacer inferencias matizadas sobre las preferencias, los estilos de comunicación y las respuestas humanas y, posteriormente, tomar decisiones. Por eso, estos sistemas también pueden comunicarse de maneras que pueden parecer humanas: pueden adaptarse a las señales emocionales de las conversaciones y presentarse como empáticas, severas o alentadoras, según sus instrucciones.
Como la IA refleja lo que ve en los datos y sigue las instrucciones de quien le dé instrucciones, puede reflejar tanto los valores vividos como los declarados de una empresa. Las organizaciones pueden entrenar a la IA para que dé recomendaciones para que parezcan benévolas (o no) mediante el uso de indicaciones y solicitudes específicas. Una IA podría recibir instrucciones, por ejemplo, para identificar y priorizar los intereses de las partes interesadas que participan en una decisión empresarial.
Las empresas ya lo están haciendo. Por ejemplo, en 2017, Salesforce utilizó su sistema interno de IA para asesorar a los líderes a la hora de tomar decisiones. En estos casos, la IA se utilizó para reducir los prejuicios en las reuniones y reducir las agendas políticas o personales internas. Ayudó a defender los intereses de las partes interesadas, a ayudar a los líderes a tomar decisiones benévolas y a demostrar que la IA puede ser una herramienta que ayude a promover la benevolencia en la toma de decisiones.
¿Pueden este tipo de aplicaciones convencer a los empleados de la benevolencia de la IA? Al fin y al cabo, es posible que promuevan enfoques más reflexivos en la gestión y la toma de decisiones. Aun así, no es probable que los empleados experimenten estas intervenciones como prueba de la benevolencia de la IA —ni deberían hacerlo— porque, por lo general, lo ven como una cualidad humana que está fuera del alcance de estas herramientas.
Eso se debe, por supuesto, a que los sistemas de IA no son ni pueden ser benévolos. La IA no tiene la capacidad de estar dispuesta a adoptar una orientación positiva para servir a los intereses de un otro interdependiente. De hecho, estos sistemas funcionan mediante algoritmos que siguen patrones estadísticos y objetivos predefinidos sin ningún propósito autónomo; y como tal hay ninguna intención en la lógica interna del motor de IA. Sin la capacidad de opinar y tomar una decisión, los sistemas de IA tienen una comprensión limitada del mundo y de lo que impulsa a los humanos en ese mundo. Y, por esa razón, los sistemas de IA no están dispuestos a cuidar genuinamente los intereses de las personas.
Esto es importante por varias razones: 1) Los humanos son mejor que la casualidad en detectar si las señales emocionales son reales, y 2) la investigación revela que la confianza benevolente es difícil de fomentar si las intenciones de la otra parte están en duda. El reconocimiento de que a los sistemas de IA no les importa (y solo están poniendo una fachada de benevolencia) entonces, lamentablemente, generará disrupción negativa en el proceso de creación de confianza.
Recomendaciones
Para promover la confianza en la IA, es importante que las organizaciones se den cuenta de que no se trata solo de un ejercicio de ingeniería en el que se necesitan intervenciones a nivel de la propia tecnología, como el código fuente abierto y la promoción de la IA explicable. Garantizar que los empleados acepten la IA exige que sean capaces de entenderla y cómo funciona. Lograr este tipo de confianza requiere que se intervengan tanto a nivel de la IA como de los líderes. He aquí cómo hacerlo:
En primer lugar, para crear un entorno en el que los empleados puedan adoptar la IA con confianza, las organizaciones deben promover los factores de confianza cognitivos de la IA: la fiabilidad, la precisión y la transparencia. La investigación muestra que los sistemas percibidos como fiables y comprensibles promueven una mayor aceptación entre los usuarios. Este tipo de confianza se puede lograr interviniendo en la propia tecnología. Por ejemplo, realizar auditorías periódicas de la precisión de la IA, los esfuerzos de mitigación de los sesgos y el seguimiento del rendimiento puede garantizar a los empleados la fiabilidad de la IA y alentarlos a dedicarse plenamente a la tecnología.
En segundo lugar, los líderes tienen que demostrar una preocupación genuina por el bienestar y la equidad de los empleados, porque la IA no puede. En última instancia, los líderes decidirán cómo se utiliza y empodera la IA y dónde no. Al hacer participar a los empleados en los debates sobre el papel de la IA en su trabajo y abordar sus preocupaciones de forma transparente, líderes puede ayudar a crear una cultura laboral en la que los empleados se sientan valorados y perciban la IA como una solución que se adopta con el objetivo de empoderar y hacer crecer a los empleados en lugar de reemplazarlos.
En tercer lugar, la solución óptima para la falta de confianza en la IA requiere una «combinación de IA y líder» que garantice que los empleados no solo tengan confianza técnica en la IA, sino que también se aseguren de que servirá a sus intereses de manera respetuosa y justa. Para promover la aceptación de esta combinación de líderes de IA para mejorar la confianza en la IA en todos los ámbitos (dimensiones cognitivas y emocionales de la confianza), las organizaciones necesitan desarrollar e implementar programas de formación. Estos programas existen para ayudar a los empleados a sentirse menos amenazados por la adopción de la IA y, al mismo tiempo, a sentirse empoderados por sus supervisores. Esto se puede hacer promoviendo la alfabetización digital y la comprensión del funcionamiento de la IA. Una mejor comprensión de la IA, junto con los debates dirigidos por los líderes que enmarquen la IA como una herramienta de apoyo para contribuir al propósito de la empresa y a los intereses de todos los involucrados, permitirá a los empleados ver cómo la IA puede contribuir a sus funciones y al crecimiento profesional.
• • •
Crear un contexto de trabajo en el que la IA sea fiable y emocionalmente confiable requiere una alineación deliberada de las intervenciones tecnológicas para mejorar la confianza cognitiva con un liderazgo benevolente y transparente. Al combinar un liderazgo benévolo con prácticas de IA transparentes y participativas, las organizaciones pueden ayudar a los empleados a obtener más claridad sobre el papel de la IA para que tengan más probabilidades de adoptarla como un aliado en su trayectoria profesional.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.