PathMBA Vault

Technology and analytics

Tres formas en las que la IA se está volviendo más emocional

por Sophie Kleber

Tres formas en las que la IA se está volviendo más emocional

jul18_31_578960547

Imágenes de Wunderfool/Getty

En enero de 2018, Annette Zimmermann, vicepresidenta de investigación de Gartner, proclamado: «Para 2022, su dispositivo personal sabrá más sobre su estado emocional que su propia familia». Solo dos meses después, un estudio histórico de la Universidad de Ohio afirmó que su algoritmo era ahora mejor detectando las emociones que las personas son.

Los sistemas y dispositivos de IA pronto reconocerán, interpretarán, procesarán y simularán las emociones humanas. Una combinación de análisis facial, análisis de patrones de voz y aprendizaje profundo ya puede decodificar las emociones humanas para investigación de mercado y votación política propósitos. Con empresas como Afectiva,   Más allá de lo verbal y Sensay proporcionando un software de análisis de sentimientos listo para usar, el computación afectiva se estima que el mercado crecerá hasta 41 000 millones de dólares para 2022, como firmas como Amazon, Google, Facebook, y Manzana corren por decodificar las emociones de sus usuarios.

Centro Insight

  • Adopción de la IA

    Patrocinado por SAS

    Cómo utilizan las empresas la inteligencia artificial en sus operaciones comerciales.

Las aportaciones emocionales provocarán un cambio de las interacciones basadas en datos y con un alto coeficiente intelectual a experiencias profundas guiadas por el coeficiente intelectual, lo que dará a las marcas la oportunidad de conectarse con los clientes de una forma mucho más profunda, personal nivel. Pero leer las emociones de las personas es un delicado negocios. Las emociones son muy personales y a los usuarios les preocupa el miedo, la invasión y la manipulación de la privacidad. Antes de que las empresas se sumerjan, los líderes deberían tener en cuenta preguntas como:

  1. ¿Qué ofrece? ¿Su propuesta de valor se presta naturalmente a la participación de las emociones? ¿Y puede justificar de manera creíble la inclusión de pistas emocionales para mejorar la experiencia de usuario?
  2. ¿Cuáles son las intenciones emocionales de sus clientes cuando interactúan con su marca? ¿Cuál es la naturaleza de la interacción?
  3. ¿El usuario le ha dado permiso explícito para analizar sus emociones? ¿El usuario mantiene el control de sus datos y puede revocar su permiso en cualquier momento?
  4. ¿Su sistema es lo suficientemente inteligente como para leer y reaccionar con precisión ante las emociones del usuario?
  5. ¿Cuál es el peligro en una situación dada si el sistema falla? ¿Peligro para el usuario o peligro para la marca?

Teniendo en cuenta esas preocupaciones, los líderes empresariales deberían conocer las aplicaciones actuales de la IA emocional. Se dividen aproximadamente en tres categorías:

Sistemas que utilizan el análisis emocional para ajustar su respuesta.

En esta solicitud, el servicio de IA reconoce las emociones y las tiene en cuenta en su proceso de toma de decisiones. Sin embargo, la salida del servicio está completamente libre de emociones.

IVR conversacionales (respuesta de voz interactiva) y chatbots prometen dirigir a los clientes al flujo de servicio correcto de forma más rápida y precisa si se tienen en cuenta las emociones. Por ejemplo, cuando el sistema detecta que un usuario está enfadado, se le dirige a un flujo de escalada diferente o a un humano.

Autoemotivo, Afectiva IA automotriz , y Ford se apresuran a preparar el mercado de software de coches emocionales para detectar las emociones humanas, como el enfado o la falta de atención, y luego tomar el control o detener el vehículo, evitando accidentes o actos de furia en la carretera.

El sector de la seguridad también incursiona en Emotion AI para detectar personas estresadas o enojadas. El Gobierno británico, por ejemplo, monitorea los sentimientos de sus ciudadanos sobre ciertos temas en las redes sociales.

En esta categoría, las emociones desempeñan un papel en el proceso de toma de decisiones de la máquina. Sin embargo, la máquina sigue reaccionando como una máquina, básicamente, como una centralita gigante que dirige a las personas en la dirección correcta.

Sistemas que proporcionan un análisis emocional específico con fines de aprendizaje.

En 2009, Philips se asoció con un banco holandés para desarrollar la idea de un pulsera «rationalizer» para evitar que los operadores tomen decisiones irracionales mediante el control de sus niveles de estrés, que mide mediante el control del pulso del usuario. Hacer que los operadores se dieran cuenta de su estado emocional elevado les hizo hacer una pausa y pensar antes de tomar decisiones impulsivas.

Las gafas inteligentes de Brain Power ayudar a las personas con autismo a entender mejor las emociones y las señales sociales. El usuario de este dispositivo tipo Google Glass ve y oye comentarios especiales orientado a la situación, por ejemplo, entrenamiento sobre las expresiones faciales de las emociones, cuándo mirar a las personas e incluso comentarios sobre el propio estado emocional del usuario.

Estos sistemas de análisis emocional específicos reconocer e interpretar las emociones. La información se comunica al usuario con fines de aprendizaje. A nivel personal, estas aplicaciones segmentadas actuarán como un Fitbit para el corazón y la mente, ya que ayudarán a la atención plena, al autoconocimiento y, en última instancia, a la superación personal, a la vez que mantienen una relación máquina-persona que mantiene al usuario al mando.

Este artículo también aparece en:

Los sistemas de aprendizaje emocional específicos también se están poniendo a prueba para entornos grupales, por ejemplo, analizando las emociones de los estudiantes para profesores, o trabajadores de gerentes. Escalar a entornos grupales puede tener una sensación orwelliana: la preocupación por la privacidad, la creatividad y la individualidad hace que estos experimentos jueguen al borde de la aceptación ética. Y lo que es más importante, se necesita una formación psicológica adecuada para las personas en el poder para interpretar los resultados emocionales y hacer los ajustes adecuados.

Sistemas que imitan y, en última instancia, sustituyen las interacciones de persona a persona.

Cuándo altavoces inteligentes entró en la sala de estar estadounidense en 2014, empezamos a acostumbrarnos a escuchar que los ordenadores se hacían llamar «yo». Llámalo error humano o atajo evolutivo, pero cuando las máquinas hablan, la gente asume relaciones.

Ahora hay productos y servicios que utilizan interfaces de usuario conversacionales y el concepto de» los ordenadores como actores sociales» para tratar de aliviar salud mental preocupaciones. Estas aplicaciones tienen como objetivo ayudar a los usuarios a superar las crisis mediante técnicas de la terapia conductual. Ellie ayuda a tratar a los soldados con TEPT. Karim ayuda a los refugiados sirios a superar el trauma. Los asistentes digitales incluso tienen la tarea de ayudar a aliviar soledad entre los ancianos.

Aplicaciones informales como las de Microsoft Xiao Ice, el Asistente de Google o Alexa de Amazon utilizan las señales sociales y emocionales con un propósito menos altruista: su objetivo es garantizar la lealtad de los usuarios actuando como nuevas mejores amigas de la IA. El futurista Richard van Hooijdonk bromea: «Si un vendedor puede hacer que llore, puede hacer que compre».

La discusión en torno a tecnología adictiva está empezando a examinar las intenciones detrás asistentes de voz. ¿Qué significa para los usuarios que los asistentes personales estén conectados a los anunciantes? En una filtración Nota de Facebook, por ejemplo, la empresa de redes sociales se jactó ante los anunciantes de que podía detectar y, posteriormente, dirigirse a los sentimientos de «inutilidad» e «inseguridad» de los adolescentes, entre otras emociones.

Judith Masthoff de la Universidad de Aberdeen dice, «Me gustaría que las personas tuvieran su propio ángel guardián que pudiera apoyarlas emocionalmente durante todo el día». Pero para alcanzar ese ideal, será necesario realizar una serie de experimentos (acordados colectivamente) para guiar a los diseñadores y las marcas hacia el nivel de intimidad adecuado, y una serie de fracasos determinarán las reglas para mantener la confianza, la privacidad y los límites emocionales.

El mayor obstáculo para encontrar el equilibrio adecuado puede no ser lograr formas más eficaces de IA emocional, sino encontrar humanos emocionalmente inteligentes que las construyan.