GenAI podría hacer que las conversaciones en línea fueran más civilizadas
por Chris Bail

La IA generativa debe parecer una superarma para los actores malintencionados que quieren sembrar la discordia en Internet. Los vídeos totalmente falsos se hacen pasar por figuras públicas con una fidelidad sin precedentes, los enjambres de chatbots conversacionales avivan los conflictos a través de llamamientos personalizados y los esfuerzos por detectar y mitigar esas campañas aún están en pañales.
Pero, ¿la IA generativa también puede mediar en los conflictos dentro de su organización? Mis colegas y yo hemos realizado investigaciones que indican que los modelos lingüísticos extensos, como ChatGPT, pueden hacer que las conversaciones en línea sean más productivas, reducir la descortesía y aumentar la disposición a mantener conversaciones difíciles a través de las divisiones sociales. Es más, ya estamos viendo aplicaciones prácticas: inspirándose en este tipo de investigaciones, Nextdoor, una plataforma de redes sociales de base comunitaria que se ha esforzado por rechazar la toxicidad en Internet, lanzó recientemente un esfuerzo exitoso y a gran escala para reducir la descortesía.
La mayoría de la gente es mala para gestionar los conflictos. Sobreestimamos nuestra capacidad para persuadir a los demás, hablar más allá o evitar por completo las discusiones estresantes. Sin embargo, las ciencias sociales han producido una gran variedad de pruebas sobre la mediación de conflictos. Cuando las personas aprenden técnicas como la escucha activa o la toma de perspectiva, es más probable que transmitan sus propios puntos de vista. Pero esa formación lleva mucho tiempo y es cara y, por lo general, no llega a quienes evitan los conflictos.
En un estudiar publicado recientemente en el Actas de la Academia Nacional de Ciencias, mis colegas y yo examinamos si los modelos lingüísticos extensos pueden enseñar a las personas técnicas de mediación de conflictos a gran escala. Reclutamos a un grupo grande de personas con diferentes opiniones sobre el control de armas y las pusimos en contacto para hablar de este tema con alguien que no comparte su opinión en una plataforma de chat en línea que creamos.
Tras intercambiar varios mensajes en nuestra plataforma, la mitad de los participantes de la investigación empezaron a recibir mensajes emergentes con frases alternativas para los mensajes que estaban a punto de enviar a su pareja de chat. Estas ventanas emergentes empleaban el GPT-3 para reformular cada publicación utilizando los principios de la mediación de conflictos, sin cambiar la opinión expresada en ellas. Los participantes tenían la opción de enviar estas versiones reformuladas de su mensaje o ignorarlas.
Descubrimos que el GPT-3 es sorprendentemente bueno para facilitar conversaciones difíciles. Las personas cuya pareja utilizó las reformulaciones generadas por la IA describieron las conversaciones como más productivas y menos estresantes y expresaron su mayor disposición a considerar puntos de vista alternativos. Aunque nuestra intervención mejoró el civismo de las conversaciones en Internet, no cambió de inmediato la actitud de la gente sobre el control de armas. Pero quizás eso sea bueno: una IA que dé a los usuarios poderes de gran persuasión podría causar estragos en malas manos.
Nuestro estudio se llevó a cabo un mes antes de que ChatGPT se publicara, mucho antes del aumento de la preocupación pública por la IA generativa. Además, solo examinamos si el GPT-3 podía facilitar las conversaciones sobre un solo tema en un entorno un tanto artificial. Por lo tanto, la siguiente pregunta era obvia: ¿Pueden estas mismas herramientas reducir los conflictos en entornos del mundo real?
Si un esfuerzo lanzado recientemente por Nextdoor sirve de guía, la respuesta a esa pregunta es sí. Un representante nacional encuesta reveló recientemente que los conflictos abundan en Nextdoor, a pesar (o quizás debido a) sus humildes orígenes que conectaban a los vecinos entre sí. Si hay algún espacio en Internet en el que la IA generativa pueda descarrilarse intentando disuadir un conflicto, podría ser Nextdoor.
Pero en su última Informe de transparencia , NextDoor anunció algunos resultados impresionantes en relación con el uso de la IA para mediar en los conflictos. Cuando la IA reformuló los mensajes desagradables que los usuarios estaban a punto de enviar, muchos optaron por usarlos y otros se vieron obligados a editar sus publicaciones originales. Otros optaron por no enviar sus mensajes en absoluto. En última instancia, la intervención provocó una impresionante caída del 15% en el contenido tóxico. Teniendo en cuenta la cantidad de comunicación potencialmente conflictiva que tiene lugar en el lugar de trabajo en Slack, Microsoft Teams y otras plataformas de colaboración, especialmente en tiempos de gran tensión social y política, puede que sea hora de que estas plataformas consideren añadir chatbots que puedan organizar intervenciones similares.
Pero ninguna organización puede evitar los conflictos para siempre. Las conversaciones acaloradas son una realidad tanto para la mayoría de los ejecutivos, gerentes y empleados de nivel inferior, y las nuevas herramientas de inteligencia artificial no solo pueden ayudar a enfriarlos sino también a prepararnos para ellas antes de que empiecen. Ese es el objetivo de Rehearsal, una plataforma diseñada por informáticos de Stanford que permite a la gente practicar conversaciones difíciles con un interlocutor digital. Una evaluación experimental de la plataforma mostró recientemente algunos resultados prometedores: sobre todo, los participantes del estudio que utilizaban la plataforma tenían muchas más probabilidades de evitar la escalada del conflicto, en comparación con los que estaban en estado de control.
Si la historia de Internet es nuestra guía, impedir que actores malintencionados causen estragos en los sistemas sociales seguirá siendo un juego de golpear a un topo. A medida que las organizaciones se enfrentan a tecnologías capaces de imitar a sus empleados, clientes o líderes de una manera asombrosa, los ejecutivos astutos deben pensar en cómo equilibrar lo bueno y lo malo. La IA generativa puede ayudar a reforzar los lazos sociales que permiten a las organizaciones eficaces resistirse a esas amenazas y ser conscientes de nuestros puntos ciegos, antes de que se conviertan en vulnerabilidades.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.