Por qué los CEO deberían pensárselo dos veces antes de utilizar la IA para escribir mensajes
por

¿Qué pasaría si los CEO empezaran a redactar las comunicaciones a los empleados utilizando IA generativa? ¿Se daría cuenta alguien? Probablemente no, según un nuevo estudio. Pero eso no significa que los CEO deban utilizarla para escribirlo todo. He aquí lo que pueden hacer para escribir de forma eficaz y transparente con IA generativa.
Dado lo eficaz que es la IA para imitar la escritura humana, no debería sorprendernos que los CEO estén experimentando con su uso para redactar mensajes personales. Una investigación de la Harvard Business School de 2018 calculó que el 24% del día del ejecutivo medio se destina a la comunicación electrónica. Pero, ¿qué pasaría si los CEO empezaran a redactar las comunicaciones de sus empleados utilizando IA generativa?
Un grupo de investigadores estudió esta cuestión el año pasado en Zapier, una empresa de software estadounidense con más de 700 empleados. El profesor de la Harvard Business School Prithwiraj Choudhury y sus colegas Bart Vanneste (University College de Londres), Xi Kang (Vanderbilt) y Amirhossein Zohrehvand (Universidad de Leiden) querían determinar si los empleados podían distinguir entre los mensajes escritos por la IA y los redactados por el CEO de Zapier, Wade Foster. Utilizando un amplio modelo lingüístico desarrollado por los empleados de la empresa, Choudhury y sus colegas entrenaron a un chatbot en los mensajes de Slack y de correo electrónico, declaraciones públicas y otras comunicaciones de Foster. El “Bot de Wade”, como empezaron a llamarlo los investigadores, fue diseñado específicamente para escribir como Foster.
“La IA y la automatización están teniendo un gran efecto en cómo y dónde trabajamos”, afirma Choudhury. “Pero cuando pensamos en la próxima frontera de la IA generativa, una de las posibilidades es que los bots personales se comuniquen, asistan a reuniones, escuchen y hablen en nuestro nombre. Queríamos determinar hasta qué punto esto podría ser posible hoy en día”.
Los investigadores realizaron un crowdsourcing de preguntas para que Foster respondiera a 105 empleados. Tanto el CEO como el Wade Bot produjeron respuestas, luego los empleados trataron de distinguirlas. Identificaron correctamente las respuestas escritas por la IA el 59% de las veces.
Hubo otro hallazgo sorprendente. Cuando se pidió a los empleados que evaluaran si las respuestas eran útiles, las que creían que eran generadas por IA fueron calificadas como menos útiles, incluso cuando Foster las había escrito realmente.
A continuación, los investigadores realizaron un segundo estudio para determinar si los resultados serían diferentes si los evaluadores no estuvieran familiarizados con el escritor. Reclutaron a 218 personas en Estados Unidos y les pidieron que leyeran respuestas que los participantes creían que habían sido dadas por los CEO durante las llamadas de ganancias de las empresas. Mientras que algunas respuestas procedían de convocatorias de beneficios reales, otras fueron generadas por una herramienta de inteligencia artificial que imitaba el estilo de los CEO. El estudio reveló que cuando las personas pensaban que una respuesta había sido creada por la IA, la calificaban de menos útil aunque procediera de un ser humano. Por el contrario, cuando pensaban que un CEO había dado una respuesta, la consideraban más útil aunque procediera de la IA.
En términos sencillos, las personas confían más y encuentran más valor en las declaraciones que creen que proceden de un humano que de la tecnología. Esto sugiere que, aunque la IA puede producir información útil, las percepciones de las personas desempeñan un papel importante en cómo se recibe.
Aun así, la mayoría de los líderes utilizarán la IA generativa de alguna forma o manera. El 50% de los CEO estadounidenses afirman que sus empresas ya han automatizado la creación de contenidos con ella, según una encuesta de Deloitte de 2024. El 75% afirma haber utilizado o estar utilizando personalmente esta tecnología. Si decide hacer lo mismo, Choudhury recomienda seguir tres pautas:
1. Sea transparente.
Si sus empleados descubren que ha externalizado sus comunicaciones sin decírselo, pueden empezar a creer que cada mensaje que envía está redactado por un bot. La transparencia es esencial para generar confianza y disipar la aversión de la gente hacia la IA generativa. Comunique claramente la función y las ventajas de la herramienta. Diga a los empleados qué uso considera aceptable de la misma, cuáles son sus directrices para extraer texto y datos de sus respuestas, y qué datos utiliza y evita a la hora de promptar y entrenar a los bots.
Su empresa debe tener normas sobre el grado en que se permite, e incluso se espera, que los empleados utilicen la IA. Cumpla las normas usted mismo, obviamente, pero también informe a la gente de cómo utiliza la tecnología dentro de estos parámetros. Esto ayudará a fomentar un uso constructivo y a responder a las preguntas relacionadas que otros tengan.
2. Utilice la IA para mensajes impersonales.
La tecnología es más eficaz para las comunicaciones formales, como las cartas a los accionistas o los memorandos de estrategia, según la investigación de Choudhury. Evítela para las comunicaciones personales, especialmente con personas que le conocen bien.
En el experimento de Zapier, los empleados con más antigüedad eran más propensos a detectar las respuestas generadas por la IA. Los que llevaban tres años o más, por ejemplo, tuvieron una mayor tasa de acierto en sus conjeturas (62%) que los trabajadores más nuevos (58%). Choudhury cree que su familiaridad con el estilo de comunicación de Foster limitó el éxito del robot a la hora de imitarle. Pero el estilo personal de un CEO es mucho menos perceptible en un escrito formal que en un correo electrónico a un subordinado o en un post en LinkedIn.
“El caso de uso objetivo hoy en día debería ser realmente la comunicación con extraños o la automatización de las partes monótonas de la escritura”, afirma Choudhury. “Podría utilizar la IA para responder a preguntas sobre su estrategia de precios o sobre lo que espera que ocurra con los tipos de interés el año que viene. Pero yo no la utilizaría para escribir un correo electrónico a un miembro del consejo sobre sus últimas vacaciones”.
3. Verifique tres veces su trabajo.
No confíe en la IA generativa para que produzca respuestas de forma autónoma. La tecnología suele equivocarse y tiende a depender demasiado de la jerga y las palabras de moda. Estos retos presentan grandes riesgos para los CEO, cuyos mensajes pueden tener un impacto dramático en los empleados, los accionistas y los clientes. En lugar de limitarse a copiar y pegar las respuestas de AI en un documento, revise y compruebe cada palabra, especialmente en el caso de los mensajes importantes y delicados. También debe pedir a un editor que revise sus comunicaciones generadas por la tecnología (o cualquier comunicación, en realidad) para asegurarse de que su significado, tono y personalidad coinciden con lo que usted pretendía.
“Nunca pulse enviar sin leer y comprobar los hechos del mensaje”, dice Choudhury. “La IA generativa es una gran herramienta que ahorrará mucho tiempo a los CEO, pero no creo que se pueda dejar que funcione completamente sola. Aunque sólo responda incorrectamente a una pregunta, sufrirá enormes consecuencias imprevistas”.
Sobre la investigación: “La prueba de Wade:Generative AI and CEO Communication”, de Prithwiraj Choudhury et al. (documento de trabajo)
“Cuando utilizo la IA generativa, debo defender todo lo que hay en el mensaje”
Wade Foster es cofundador y CEO de Zapier, una empresa de software global totalmente remota. Recientemente habló con HBR sobre el experimento del profesor Choudhury y sobre cómo un chatbot entrenado en su escritura cambió su proceso creativo. A continuación, extractos editados de la conversación.
Chase Castor
¿Cómo utiliza la IA generativa para escribir?
La utilizo para redactar correos electrónicos largos y mensajes de Slack. También es buena para redactar respuestas a preguntas frecuentes y manejar documentos con plantillas, como comunicados de prensa. La gente me envía correos electrónicos a menudo pidiéndome consejo, y algunas de esas preguntas las he respondido muchísimas veces. Pero hace un tiempo subí un documento con un banco de respuestas a nuestra herramienta de IA generativa. Cuando llega una pregunta repetida, puedo utilizar la herramienta para producir una respuesta que sea genuinamente mía. No tengo que escribirla de nuevo ni trasladar los datos que hay detrás de la respuesta. Simplemente está ahí para mí.
¿Hasta qué punto es transparente con los empleados sobre cómo utiliza la IA?
Todo el mundo en Zapier sabe que utilizo IA generativa para ayudarme a escribir, pero no revelo que la utilizo cada vez que envío un mensaje. Hay ciertas áreas en las que tenemos directrices y políticas firmes sobre la IA. La forma en que se nos permite utilizar los datos de los clientes, por ejemplo, es muy estricta. Imponemos activamente el cumplimiento de estas directrices, por lo que cualquier trabajo con datos de clientes debe realizarse de forma 100% transparente y con el máximo cuidado. Pero fuera de estos escenarios, simplemente esperamos que nuestra gente utilice el buen juicio. No necesito saber que la IA generativa le ayudó a escribir una presentación en PowerPoint, pero sí necesito saber que ha leído y comprobado cada palabra de esa presentación. Lo mismo me ocurre a mí: Cuando utilizo la IA generativa, yo decido si utilizo lo que produce, y debo atenerme a todo lo que contiene el mensaje.
¿Cómo ha cambiado la IA generativa su proceso de escritura?
Mis primeros borradores están mucho más pulidos que antes. Nunca he tenido escritores fantasma ni RR.PP. que escribieran por mí; diría que el 90% de mi comunicación siempre ha venido de mí. Las personas que han editado mi trabajo o me han hecho comentarios siguen haciéndolo, salvo que ahora saben buscar las cosas estándar que todos debemos buscar en la escritura asistida por IA generativa, como las alucinaciones y el lenguaje atrofiado y robotizado. También captan cosas que la IA no captaría porque entienden el contexto específico de Zapier, como nuestra cultura, nuestra estrategia y nuestra base de clientes. Los grandes modelos lingüísticos genéricos no tienen ese contexto, así que no van a poder darme consejos o comentarios que requieran ese nivel de especificidad.
¿Le impresionó la imitación que hizo el robot de su escritura?
Fue un éxito o un fracaso. Hubo veces en las que leí una respuesta y pensé: " ¡Es mejor de lo que se me habría ocurrido a mí! Nunca leí una respuesta y pensé: ¡Esa no soy yo! Pero hubo veces en las que pensé: " Estoy un poco en desacuerdo". Cuanto más pensaba en estas respuestas, mejor podía rastrear una respuesta hasta algo que yo hubiera escrito en el pasado. Pero al bot le faltaba el contexto y los matices de mis respuestas anteriores. Es posible que otros no se hubieran dado cuenta de que estaba apagado, pero como me estaba imitando, yo me di cuenta.
¿Qué otros casos de uso de IA generativa le gustaría probar?
Estamos debatiendo si una versión de mí en forma de chatbot, como la utilizada en el experimento del profesor Choudhury, puede servir como sustituto mío. Así, si usted es un empleado que se enfrenta a una situación concreta y quiere saber cómo me sentiría yo al respecto, puede chatear con el bot Wade para ver qué consejos le ofrece. Hay formas en las que una versión bot de mí sería una mejor caja de resonancia para los empleados que yo. El bot es más paciente, nunca está enfadado por una reunión anterior, no le juzga a usted ni a su pregunta. Yo intento no hacer estas cosas, pero soy humano. Tendríamos que publicar advertencias y descargos de responsabilidad para que la gente no trate las respuestas del bot de Wade como si fueran mis directrices, pero creo que crearía otra vía de ayuda.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.