¿Puede la IA empujarnos a tomar mejores decisiones?
por Bob Suh

MrPliskin/Getty Images
La revolución del comportamiento en la economía se desencadenó con una pregunta simple e inquietante: ¿y si las personas no actúan de forma racional? Esta misma pregunta ahora irrita al campo de la tecnología. En el mundo de Internet, que antes se esperaba que fuera un lugar de información fácil y fácil colaboración, las mentiras y el odio pueden difundirse más rápido que la verdad y la amabilidad. Los sistemas corporativos también provocan un comportamiento irracional. Por ejemplo, cuando previsión de ventas, los empleados suelen esconder las malas ofertas y denunciar selectivamente las buenas. La IA se encuentra en la encrucijada de la cuestión del comportamiento, con el potencial de empeorar las cosas o de obtener mejores resultados por nuestra parte. La clave para obtener mejores resultados es aumentar el cociente emocional de la IA, su coeficiente emocional. ¿Cómo? Entrenando algoritmos para que imiten el comportamiento de las personas en relaciones constructivas.
Lo admitamos o no, establecemos relaciones con las aplicaciones. Y las aplicaciones, como las personas, pueden provocar comportamientos positivos y negativos por nuestra parte. Cuando las personas con un coeficiente intelectual alto interactúan con nosotros, aprenden nuestros patrones, empatizan con nuestras motivaciones y sopesan cuidadosamente sus respuestas. Deciden ignorarnos, desafiarnos o alentarnos según la forma en que anticipen que reaccionaremos.
Centro Insight
Interactuar con la IA
Patrocinado por Qlik
Cómo trabajarán juntos los humanos y las máquinas.
Se puede entrenar a la IA para que haga lo mismo. ¿Por qué? Porque los comportamientos son más predecibles de lo que nos gusta pensar. El 70 000 millones de dólares la industria de la pérdida de peso prospera porque las compañías de dietas saben que la mayoría de las personas recuperan el peso perdido. El 40 000 millones de dólares la industria de los casinos se beneficia de la ilógica esperanza de los jugadores de volver. Las compañías de tarjetas de crédito saben que es difícil para las personas dejar sus hábitos de gasto.
Si bien aún es muy pronto, los campos de las ciencias del comportamiento y el aprendizaje automático ya ofrecen algunas técnicas prometedoras para crear una IA de mayor ecualización que las organizaciones están poniendo a trabajar para obtener mejores resultados. Esas técnicas incluyen:
Observando roturas de patrones y codazos. Las personas que lo conocen pueden darse cuenta fácilmente cuando está rompiendo un patrón y reaccionar en consecuencia. Por ejemplo, un amigo puede darse cuenta de que de repente ha cambiado de rutina y le pregunte por qué. El sistema de pago de facturas en línea del Bank of America observa de manera similar las rupturas de patrones para evitar errores de introducción de datos por parte de los usuarios. El sistema recuerda el patrón de pagos que ha realizado en el pasado y publica una alerta si aumenta considerablemente el pago a un proveedor.
Fomentar el autoconocimiento con puntos de referencia. Decirle sin rodeos a las personas que tienen un mal desempeño a menudo resulta contraproducente, ya que provoca una actitud defensiva más que un mayor esfuerzo. Un método más diplomático simplemente permite a las personas ver cómo se comparan con las demás. Por ejemplo, una importante empresa de tecnología utilizó la IA para generar previsiones de ventas más precisas que el equipo de ventas. Para inducir al equipo a corregir el rumbo, el sistema proporciona a cada miembro del equipo visualizaciones personalizadas que muestran en qué se diferencian sus previsiones de las previsiones de la IA. Un simple codazo pregunta entonces por qué podría ser así. El miembro del equipo puede dar una explicación racional, evitar dar comentarios o afirmar que la IA es incorrecta. La IA aprende sobre el fondo y el momento de la reacción de la persona, la compara con la brecha entre las dos previsiones y puede elegir un codazo de segundo orden adecuado.
Utilizar la teoría de juegos para aceptar o impugnar las conclusiones. Imagínese estar en un equipo que debe encontrar errores en más de 100 000 transacciones de fondos de inversión al día. Un fondo que gestiona un billón de dólares en activos está abordando este enorme problema de la IA. La primera versión de la IA puntuaba los posibles errores (denominados «anomalías») según el riesgo y el coste potencial, y luego puso primero en cola las anomalías más riesgosas. A continuación, el sistema rastreó el tiempo que el analista dedicaba a cada anomalía. Se suponía que los analistas dedicarían más tiempo a las anomalías más riesgosas y menos a las «obvias». De hecho, algunos analistas estaban analizando las anomalías más arriesgadas y llegaban a conclusiones sospechosamente rápidas.
En la mayoría de los sistemas de detección masivos, la tasa de falsos positivos suele ser extremadamente alta. Por ejemplo, los equipos secretos del Departamento de Seguridad Nacional encontrado que la TSA no detuvo el 95% de los intentos de los inspectores de contrabandear armas o materiales explosivos mediante controles. Los analistas de fondos de inversión que rastrean innumerables transacciones, como los inspectores de la TSA que atienden a miles de pasajeros, con los ojos vidriosos, simplemente pasan por alto las anomalías.
El fondo está abordando este comportamiento peligroso, aunque muy predecible, con un algoritmo empleado por los programas de juego de ajedrez. Esta versión modificada de la teoría de juegos secuenciales monitorea primero si el analista concluye que una anomalía es un falso positivo o decide dedicarle más tiempo. La IA, que desempeña el papel de un oponente de ajedrez, puede decidir contraatacar aceptando la decisión del analista o impugnándola.
Elegir el momento adecuado para obtener información y actuar. Desde cualquier punto de vista, Jeff Bezos es un maestro de las decisiones. En un entrevista reciente con David Rubenstein de Bloomberg TV, describió su marco para tomar decisiones. Cuando se le pregunta sobre una decisión compleja a última hora de la tarde, a menudo responde: «No suena como una decisión a las 4 en punto; suena como una decisión a las 9 en punto [de la mañana]».
El equipo de ventas de mi empresa hizo pruebas A/B de la hora adecuada del día para maximizar las respuestas a los correos electrónicos de prospección y descubrió una diferencia drástica en las tasas de respuesta entre los mensajes enviados el martes por la mañana y el viernes por la tarde. Muchos sistemas de mensajería para consumidores están optimizados para maximizar el rendimiento. El algoritmo de ajuste se puede mejorar para determinar el tipo de decisión que se debe tomar y la tendencia de los usuarios a responder y tomar mejores decisiones. Por ejemplo, las decisiones que requieren más reflexión podrían presentarse en un momento en que la persona que toma las decisiones tenga más tiempo para pensar, ya sea mediante la predicción o según la programación del usuario.
¿Podría la IA de mayor ecualización ayudar a llevar más civismo a Internet? Las empresas de redes sociales harían bien en tener en cuenta una distinción que los empresarios occidentales aprenden pronto al negociar con sus homólogos japoneses: «honne» (lo que uno siente por dentro) contra «tatemae» (lo que se expresa públicamente). Una comprensión compartida de la distinción entre lo que uno siente y lo que se espera que diga lleva a menos errores de cálculo. Se podría desarrollar un algoritmo basado en esa distinción para abordar las tendencias predecibles de las personas a decir y hacer cosas bajo la influencia de las multitudes (incluso si son virtuales) que, de otro modo, dudarían en hacer. A alguien que esté preparando un post incendiario, engañoso o cruel se le podría obligar a reconsiderar su lenguaje o a darse cuenta del tenor mafioso de un tema «de moda». Los desafíos de desarrollar una IA tan cargada de emociones y con un alto coeficiente de ecualización son abrumadores, pero en lugar de simplemente eliminar las publicaciones individuales, en última instancia, podría ser más beneficioso cambiar el comportamiento en Internet para mejor.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.