PathMBA Vault

Analytics and data science

Entender a los clientes combinando la visión humana y el aprendizaje automático

por Julie Wittes Schlack

Entender a los clientes combinando la visión humana y el aprendizaje automático

. oct17-27-hbr-paul-garbett-information-technology

Paul Garbett para HBR

¿Cómo pueden las empresas utilizar el aprendizaje automático para entender de manera eficiente las necesidades y deseos de sus clientes, sin sacrificar la información que proviene de la intuición y la empatía de los empleados?

Mi empresa se dedica a ayudar a otras empresas a crear nuevos productos y servicios que sean útiles desde el punto de vista funcional y que repercutan emocionalmente entre los clientes. Como parte de este trabajo, solicitamos material en línea a los clientes y posibles clientes de la empresa. En un año determinado, recibimos aproximadamente 13 millones de envíos de texto no estructurado y más de 307 000 fotos y vídeos de unos 167 000 colaboradores distintos, todos los cuales responden a preguntas abiertas que les hacemos y generan sus propias conversaciones sobre los temas que eligen. Nuestro desafío: encontrar las necesidades insatisfechas y, a menudo, los anhelos desarticulados en esta riqueza de contenido. Para ello, utilizamos un método de aprendizaje automático supervisado por humanos del que creemos que otras empresas podrían aprender. Así es como funciona.

La programación de ordenadores tradicional se basa en articular un conjunto de reglas explícitas que el ordenador debe seguir. Por ejemplo: Si la frase contiene la palabra «loco», codifíquela como negativa o Si el objeto de la imagen tiene cuatro ruedas, etiquételo como coche. Pero, ¿qué pasa cuando el objeto de cuatro ruedas viene en una caja de Cracker-Jacks o un Happy Meal? ¿Debería etiquetarse como un juguete? ¿Como peligro de deglución?

Puede ver las limitaciones de este enfoque basado en reglas cuando trata de entender la expresión humana desestructurada. Estar «enfadado» es estar loco o enfadado; estar «enfadado por» es todo lo contrario. Y los objetos de cuatro ruedas no solo pueden ser aspiradoras o juguetes para tirar, sino que los coches pueden tener tres ruedas.

Nadie puede escribir ni articular todas las reglas para clasificar todas las cosas y, desde luego, no pueden documentar todas las formas en que se expresan las emociones humanas. Como humanos, aprendemos, clasificamos y actuamos en función del reconocimiento de patrones y las asociaciones pasadas. Hacemos suposiciones ultrarrápidas basadas en los patrones, el propósito y el contexto.

El tipo de aprendizaje automático que empleamos: aprendizaje automático supervisado— también se basa en aprender de las asociaciones pasadas. Con ejemplos que ya hemos clasificado, el ordenador puede «aprender» de la experiencia sin necesidad de programarlo explícitamente y hacerse más inteligente con el tiempo a medida que se acumula esa experiencia.

El aprendizaje automático es solo una herramienta de nuestro conjunto de herramientas en constante evolución. Pero es muy útil, y un enfoque que refleja nuestro compromiso de hacer que las empresas sean más humanas, por varias razones.

Por ejemplo, las empresas se centran naturalmente en lo que se puede medir fácilmente en sus esfuerzos por evaluar y mejorar el rendimiento y la experiencia del cliente. Ese sesgo se amplifica en los estudios de mercado tradicionales, en los que normalmente se hacen preguntas cerradas sobre la votación y la escala de calificación que arrojan respuestas que son fácilmente cuantificables y repetibles. Pero a menudo la mejor información se encuentra en una conversación espontánea con los clientes, no en la encuesta en línea que se les pide a los compradores que completen, sino en las fotos que toman, los tuits que publican y los consejos que ofrecen en los foros de Internet. Así que, en lugar de obligar a las personas a asumir el papel de «encuestado» y limitar sus comentarios únicamente a las respuestas a las preguntas que hemos pensado hacer, animamos a los miembros de nuestra comunidad a compartir de varias maneras, sabiendo que el aprendizaje automático nos hará más eficientes a la hora de interpretar muchas formas de expresión humana orgánica y desestructurada. En ese sentido, nos permite ser más humanos y estar más centrados en los clientes.

El aprendizaje automático no nos exime de la necesidad (ni del gran placer de) explorar. Más bien, sirve como detector de metales, muestra las señales de los datos y nos alerta de dónde buscar oro. Por ejemplo, en una comunidad privada que dirigimos para personas con esquizofrenia esperábamos y vimos mucha conversación sobre los síntomas, los medicamentos y los efectos secundarios. Pero cuando analizamos el texto desestructurado que aparecía en ese grupo, vimos un número inusual de referencias al arte, la música y la escritura. Eso nos llevó a explorar más a fondo la importancia de la expresión creativa en la vida de estos pacientes, lo que a su vez influyó en los programas de mensajería y apoyo de nuestros clientes de formas nuevas y poderosas.

Este tipo de análisis conlleva riesgos y limitaciones. Los principales de ellos son los sesgos implícitos en los propios conjuntos de entrenamiento, que pueden llevar a conclusiones erróneas, ineficaces o incluso poco éticas. Después de todo, los ordenadores no son curiosos. La máquina no puede preguntar: «¿La perspectiva de quién no hemos solicitado?» No puede sugerir «¿Y si hiciéramos la pregunta de otra manera?» Sigue siendo nuestra responsabilidad, como personas reflexivas y conscientes de sí mismas, hacer eso y auditar nuestros algoritmos para detectar sesgos.

Además, las máquinas carecen de cualidades humanas que son tan esenciales para el crecimiento empresarial. Si bien se les puede enseñar a reconocer los sentimientos, no se les puede enseñar a sentir. La excitación emocional es crucial para impulsar el cambio individual y organizacional y construir relaciones sólidas con los consumidores. Y como los ordenadores carecen de emociones, carecen de la potencia de empatizar con las nuestras o entusiasmarlas.

Ese déficit emocional —que a su vez crea un déficit relacional— es la razón por la que tendemos a tratar las máquinas como herramientas, no como colegas. Como observó Kurt Gray en un fascinante Artículo de HBR, «Confiar en los miembros del equipo requiere al menos tres cosas: preocupación mutua, una sensación de vulnerabilidad compartida y fe en la competencia. La preocupación mutua —saber que sus compañeros de equipo se preocupan por su bienestar— es quizás el elemento más básico de la confianza. Desconfiamos de la IA no solo porque parece carecer de inteligencia emocional, sino también porque carece de vulnerabilidad».

A falta del elemento más vital de confianza (la preocupación mutua), seguiremos valorando y utilizando el aprendizaje automático, pero no «relacionándonos» con la máquina. Pero cuando esos ingredientes humanos están en su lugar, las empresas pueden forjar conexiones sólidas y duraderas con los consumidores que ninguna máquina puede ayudar a construir, en lugar de reemplazar.