Los algoritmos también necesitan gerentes
por Michael Luca, Jon Kleinberg, Sendhil Mullainathan

La mayoría de los trabajos de los gerentes implican hacer predicciones. Cuando los especialistas en recursos humanos deciden a quién contratar, predicen quién será más eficaz. Cuando los vendedores eligen los canales de distribución que utilizan, predicen dónde se venderá mejor un producto. Cuando los capitalistas de riesgo determinan si financian una startup, predicen si tendrá éxito. Para hacer estas y muchas otras predicciones empresariales, las empresas actuales recurren cada vez más a los algoritmos informáticos, que realizan operaciones analíticas paso a paso a una velocidad y una escala increíbles.
Los algoritmos hacen que las predicciones sean más precisas, pero también crean sus propios riesgos, especialmente si no los entendemos. Abundan los ejemplos destacados. Cuando Netflix organizó un concurso millonario para desarrollar un algoritmo que pudiera identificar las películas que le gustarían a un usuario determinado, los equipos de científicos de datos unieron sus fuerzas y obtuvieron una ganadora. Pero fue uno que se aplicó a los DVD y, a medida que los televidentes de Netflix hicieron la transición al streaming de películas, sus preferencias cambiaron de manera que no coincidían con las predicciones del algoritmo.
Otro ejemplo son las redes sociales. Hoy en día, muchos sitios utilizan algoritmos para decidir qué anuncios y enlaces mostrar a los usuarios. Cuando estos algoritmos se centran demasiado en maximizar los clics de los usuarios, los sitios se ahogan con artículos de baja calidad sobre «ciberanzuelos». Las tasas de clics aumentan, pero la satisfacción general de los clientes puede caer en picado.
Este artículo aparece también en:
Las 10 lecturas imprescindibles de HBR sobre la IA, la analítica y la nueva era de las máquinas
Tecnología y operaciones LIBRO
24.95
Problemas como estos no son inevitables. En nuestro trabajo de diseño e implementación de algoritmos e identificación de nuevas fuentes de datos en una serie de organizaciones, hemos visto que el origen de las dificultades no suelen ser los errores en los algoritmos, sino los errores en la forma en que interactuamos con ellos. Para evitar errores, los directivos tienen que entender qué algoritmos funcionan bien, qué preguntas responden y qué preguntas no.
¿Por qué los algoritmos inteligentes nos llevan por mal camino?
Como muestran cada vez más pruebas, humanizar los algoritmos hace que nos sintamos más cómodos con ellos. Esto puede resultar útil si, por ejemplo, está diseñando una función de llamada automática. La voz de una persona real tiene más probabilidades que una voz electrónica de hacer que la gente escuche. Sin embargo, el problema fundamental es que las personas tratan los algoritmos y las máquinas que los ejecutan de la misma manera que tratarían a un empleado, supervisor o colega. Pero los algoritmos se comportan de manera muy diferente a la de los humanos, de dos maneras importantes:
Los algoritmos son extremadamente literales.
En la última película de Los Vengadores, Tony Stark (también conocido como Iron Man) crea Ultron, un sistema de defensa de inteligencia artificial que se encarga de proteger la Tierra. Pero Ultrón interpreta la tarea al pie de la letra y concluye que la mejor manera de salvar la Tierra es destruir a todos los humanos. En muchos sentidos, Ultron se comporta como un algoritmo típico: hace exactamente lo que se le dice e ignora cualquier otra consideración. Nos metemos en problemas cuando no gestionamos los algoritmos con cuidado.
Las redes sociales que de repente se vieron inundadas de ciberanzuelos cayeron en una trampa similar. Su objetivo general era claro: ofrecer el contenido que fuera lo más atractivo y atractivo para los usuarios. Al comunicárselo al algoritmo, crearon una serie de instrucciones que parecían un buen proxy: busque los elementos en los que los usuarios hagan más clic. Y no es un mal proxy: la gente suele hacer clic en el contenido porque les interesa. Pero hacer selecciones únicamente en función de los clics llenó rápidamente los sitios de material superficial y ofensivo que perjudicaba su reputación. Un humano entendería que los diseñadores de los sitios querían decir «Maximice la calidad medida con los clics», no «maximice los clics incluso a expensas de la calidad». Un algoritmo, por otro lado, solo entiende lo que se dice explícitamente.
Los algoritmos son cajas negras.
En la de Shakespeare Julio César, un adivino advierte a César que «tenga cuidado con los idus de marzo». La recomendación estaba perfectamente clara: más vale que César tenga cuidado. Sin embargo, al mismo tiempo, era completamente incomprensible. ¿Estar atento a qué? ¿Por qué? César, frustrado por el misterioso mensaje, despidió al adivino y declaró: «Es un soñador, dejémoslo». De hecho, los idus de marzo resultaron ser un mal día para el gobernante. El problema era que el adivino proporcionó incompleto información. Y no había ni idea de lo que faltaba ni de la importancia de esa información.
Al igual que el adivino de Shakespeare, los algoritmos suelen predecir el futuro con gran precisión, pero no le dicen ni qué es lo que provocará un suceso ni por qué. Un algoritmo puede leer cada New York Times artículo y decirle qué es más probable que se comparta en Twitter sin explicar necesariamente por qué la gente se moverá a tuitear sobre ello. Un algoritmo puede decirle qué empleados tienen más probabilidades de tener éxito sin identificar qué atributos son los más importantes para el éxito.
Reconocer estas dos limitaciones de los algoritmos es el primer paso para gestionarlos mejor. Ahora veamos otras medidas que puede tomar para aprovecharlas con más éxito.
Sea explícito en cuanto a todos sus objetivos
Todo el mundo tiene objetivos y directivas, pero también sabemos que el fin no siempre justifica los medios. Entendemos que hay objetivos y compensaciones suaves (a menudo tácitas). Puede que rechacemos un poco de beneficio hoy por ganar reputación mañana. Puede que nos esforcemos por lograr la igualdad, aunque eso cause problemas organizativos a corto plazo. Los algoritmos, por otro lado, perseguirán un objetivo específico con una sola intención. La mejor manera de mitigar esto es tener muy claro todo lo que quiere lograr.
Si le importa un objetivo fácil, tiene que declararlo, definirlo y cuantificar lo que importa. En la medida en que los objetivos indirectos sean difíciles de medir, téngalos en cuenta cuando actúe en función de los resultados de un algoritmo.
En Google (que ha financiado algunas de nuestras investigaciones sobre otros temas), surgió un problema de objetivos débiles con un algoritmo que determina qué anuncios mostrar. La profesora de Harvard Latanya Sweeney lo descubrió en un estudio. Descubrió que cuando escribía nombres que normalmente eran afroamericanos, como «Latanya Farrell», en Google, le mostraban anuncios que ofrecían investigar posibles registros de arrestos, pero no cuando buscaba nombres como «Kristen Haring». El duro objetivo de Google de maximizar los clics en los anuncios llevó a una situación en la que sus algoritmos, refinados a través de los comentarios a lo largo del tiempo, difamaban a las personas con ciertos tipos de nombres. Ocurrió porque las personas que buscaban nombres concretos tenían más probabilidades de hacer clic en los registros de arrestos, lo que hacía que estos registros aparecieran aún más a menudo, lo que creaba un bucle que se reforzaba a sí mismo. Probablemente este no era el resultado previsto, pero sin un objetivo fácil, no había ningún mecanismo para alejar al algoritmo de él.
Los algoritmos no entienden las compensaciones; persiguen objetivos con una sola intención.
Hace poco vimos la importancia de los objetivos blandos en acción. Uno de nosotros trabajaba con una ciudad de la costa oeste para mejorar la eficacia de las inspecciones de sus restaurantes. Durante décadas, la ciudad los ha estado haciendo en su mayoría al azar, pero vigilando con más frecuencia los lugares con infracciones previas. Sin embargo, elegir qué establecimientos inspeccionar es un trabajo ideal para un algoritmo. Nuestro algoritmo encontró muchas más variables, no solo infracciones pasadas, que eran predictivas. El resultado fue que el departamento de salud pudo identificar a los posibles infractores más fácilmente y, a continuación, encontrar las infracciones reales con muchas menos inspecciones.
A los funcionarios les encantó la idea de hacer que el proceso fuera más eficiente y querían avanzar hacia la implementación. Preguntamos si había alguna pregunta o duda. Tras un silencio incómodo, una persona levantó la mano. «No sé cómo sacar esto a colación», dijo. «Pero hay un tema del que debemos hablar». Explicó que en algunos barrios con barrios más reducidos, tendía a haber más infracciones. Resulta que estos barrios también albergan porcentajes más altos de residentes de minorías con ingresos más bajos. No quería que el algoritmo atacara excesivamente estos barrios. Estaba expresando un objetivo débil relacionado con la equidad. Nuestra solución sencilla consistía en incorporar ese objetivo en el algoritmo fijando un límite al número de inspecciones en cada área. Esto lograría el objetivo difícil, identificar los restaurantes con más probabilidades de tener problemas y, al mismo tiempo, respetar el más blando y garantizar que no se señalara a los barrios pobres.
Observe el paso adicional que nos permitió fijar objetivos suaves: dar a todos la oportunidad de exponer cualquier inquietud. Descubrimos que las personas suelen formular objetivos blandos como preocupaciones, por lo que pedirlos de forma explícita facilita un debate más abierto y fructífero. También es fundamental dar a las personas licencia para ser sinceras y sinceras, para decir cosas que normalmente no dirían. Este enfoque puede sacar a la luz una variedad de cuestiones, pero las que vemos más comúnmente se refieren a la equidad y a la gestión de situaciones delicadas.
Este artículo aparece también en:
Las 10 lecturas imprescindibles de 2017 de HBR
Liderazgo y gestión de personas Libro
24.95
Con un objetivo principal y una lista de problemas en la mano, el diseñador del algoritmo puede entonces hacer concesiones en él. A menudo eso puede significar ampliar el objetivo para incluir varios resultados, ponderados según la importancia.
Minimizar la miopía
Una popular empresa de productos de consumo envasados compraba productos baratos en China y los vendía en los Estados Unidos. Seleccionó estos productos después de ejecutar un algoritmo que pronosticaba cuáles se venderían más. Efectivamente, las ventas despegaron y avanzaron muy bien, hasta varios meses después, cuando los clientes empezaron a devolver los artículos.
Resulta que la tasa de devolución, sorprendentemente alta y constante, podría haberse pronosticado (aunque el algoritmo no lo hubiera previsto). Evidentemente, la empresa se preocupaba por la calidad, pero no había traducido ese interés en un algoritmo que proyectara cuidadosamente la satisfacción del consumidor, sino que había pedido al algoritmo que se centrara exclusivamente en las ventas. En última instancia, el nuevo enfoque de la empresa consistía en pronosticar no solo qué tan bien se venderían los productos, sino también cuánto disfrutaría la gente y conservaría sus productos. La empresa busca ahora ofertas que entusiasmen a los clientes en Amazon y otras plataformas, y la tasa de devolución de productos se ha desplomado.
Esta empresa se topó con un error común al tratar con los algoritmos: los algoritmos tienden a ser miopes. Se centran en los datos disponibles, y esos datos suelen referirse a resultados a corto plazo. Puede haber tensión entre el éxito a corto plazo y los beneficios a largo plazo y los objetivos corporativos más amplios. Los humanos entienden esto implícitamente; los algoritmos no lo hacen a menos que usted les diga que lo hagan.
Este problema se puede resolver en la fase de establecimiento de objetivos identificando y especificando los objetivos a largo plazo. Pero al actuar según las predicciones de un algoritmo, los gerentes también deben adaptarse a la medida en que el algoritmo es coherente con los objetivos a largo plazo.
La miopía también es la debilidad subyacente de los programas que producen contenido de baja calidad al tratar de maximizar los clics. Los algoritmos se están optimizando para lograr un objetivo que se puede medir en el momento (si un usuario hace clic en un enlace) sin tener en cuenta el objetivo más importante y de mayor alcance de mantener a los usuarios satisfechos con su experiencia en el sitio.
La miopía también puede ser un problema en las campañas de marketing. Considere una campaña publicitaria común y corriente de Gap con Google. Lo más probable es que provoque un aumento de visitas a Gap.com, porque el algoritmo de Google es bueno para predecir quién hará clic en un anuncio. La cuestión es que el verdadero objetivo es aumentar las ventas, no aumentar las visitas al sitio web. Para solucionar este problema, las plataformas de publicidad pueden recopilar datos de ventas a través de diversos canales, como asociaciones con sistemas de pago, e incorporarlos a sus algoritmos.
Los algoritmos se centran en los datos disponibles, que a menudo se refieren a resultados a corto plazo.
Es más, las visitas al sitio web son un comportamiento a corto plazo, mientras que el impacto a largo plazo de los anuncios incluye los efectos descendentes en la imagen de marca y en la repetición de negocios. Si bien es difícil encontrar datos perfectos sobre estos efectos, unas auditorías de datos cuidadosas pueden ayudar mucho. Los gerentes deben enumerar sistemáticamente todos los datos internos y externos que puedan ser relevantes para el proyecto en cuestión. Con una campaña en Google, los vendedores de The Gap podrían empezar por exponer todos sus objetivos (ventas altas, bajas devoluciones, buena reputación, etc.) y luego detallar formas de medir cada uno de ellos. Las devoluciones de productos, las reseñas en Internet y las búsquedas del término «brecha» serían excelentes métricas. El mejor algoritmo podría entonces crear predicciones a partir de una combinación de todas estas características, calibrándolas según su importancia relativa.
Elija las entradas de datos correctas
Volvamos al ejemplo de los departamentos de salud que intentan identificar los restaurantes en riesgo de provocar enfermedades transmitidas por los alimentos. Como se ha mencionado anteriormente, las ciudades han realizado inspecciones al azar o basándose en los resultados de las inspecciones anteriores. Trabajando con Yelp, uno de nosotros ayudó a la ciudad de Boston a utilizar las reseñas en Internet para determinar qué restaurantes tenían más probabilidades de infringir los códigos de salud locales, creando un algoritmo que comparaba el texto de las reseñas con los datos históricos de las inspecciones. Al aplicarlo, la ciudad identificó el mismo número de infracciones que de costumbre, pero con un 40% menos de inspectores, lo que supuso un aumento drástico de la eficiencia.
Este enfoque funcionó bien no solo porque teníamos muchos restaurantes en los que ir, sino porque las reseñas de Yelp proporcionaban una gran cantidad de datos, algo en lo que las ciudades no habían pensado demasiado. Una reseña de Yelp contiene muchas palabras e información variada. Los datos también son diversos, porque provienen de diferentes fuentes. En resumen, es muy diferente a los datos creados por los inspectores con los que las ciudades estaban acostumbradas a trabajar.
Al elegir los recursos de datos correctos, tenga en cuenta lo siguiente:
Cuanto más ancho, mejor.
Una trampa en la que suelen caer las empresas es pensar en el big data simplemente como un montón de registros, por ejemplo, analizar un millón de clientes en lugar de 10 000. Pero esto es solo la mitad del panorama. Imagine sus datos organizados en una tabla, con una fila para cada cliente. El número de clientes es la longitud de la mesa. La cantidad que conoce sobre cada cliente determina el ancho, el número de funciones que se registran en cada fila. Y si bien aumentar la longitud de los datos mejorará sus predicciones, todo el poder del big data proviene de la recopilación de datos amplios. Aprovechar la información completa es la base de la predicción. Cada detalle adicional que conozca sobre un resultado es como una pista más y se puede combinar con las pistas que ya ha recopilado. Los documentos de texto son una gran fuente de datos amplios, por ejemplo; cada palabra es una pista.
La diversidad importa.
El corolario de esto es que los datos deben ser diversos, en el sentido de que las diferentes fuentes de datos no deben estar relativamente relacionadas entre sí. De aquí viene la potencia predictiva adicional. Trate cada conjunto de datos como una recomendación de un amigo. Si los conjuntos de datos son demasiado similares, no habrá mucha ganancia marginal con cada uno adicional. Pero si cada conjunto de datos tiene una perspectiva única, se crea mucho más valor.
Entienda las limitaciones
Saber lo que su algoritmo no puede decirle es tan importante como saber lo que sí puede. Es fácil sucumbir a la creencia equivocada de que las predicciones hechas en un contexto se aplicarán igual de bien en otro. Eso es lo que impidió que la competencia de Netflix de 2009 reportara más beneficios a la empresa: el algoritmo que pronosticaba con precisión qué DVD querría pedir una persona por correo no era ni de lejos tan bueno a la hora de determinar qué película querría ver una persona ahora mismo. Netflix obtuvo información útil y buena publicidad en el concurso, pero los datos que recopiló en los DVD no se aplicaron al streaming.
Los algoritmos utilizan los datos existentes para hacer predicciones sobre lo que podría suceder con un entorno, una población, una hora o una pregunta ligeramente diferentes. En esencia, está transfiriendo una visión de un contexto a otro. Por lo tanto, es una buena práctica enumerar las razones por las que el algoritmo podría no ser transferible a un nuevo problema y evaluar su importancia. Por ejemplo, un algoritmo de infracción del código sanitario basado en reseñas e infracciones en Boston podría ser menos eficaz en Orlando, que tiene un clima más caluroso y, por lo tanto, se enfrenta a diferentes problemas de seguridad alimentaria.
Recuerde también que la correlación todavía no significa causalidad. Supongamos que un algoritmo predice que los tuits cortos se retuitearán con más frecuencia que los más largos. Esto no sugiere en modo alguno que deba acortar sus tuits. Es una predicción, no un consejo. Funciona como predicción porque hay muchos otros factores que se correlacionan con los tuits cortos y hacen que sean eficaces. Esta es también la razón por la que fracasa como consejo: acortar sus tuits no cambiará necesariamente esos otros factores.
Pensemos en las experiencias de eBay, que llevaba años haciendo publicidad a través de Google. eBay vio que las personas que veían esos anuncios tenían más probabilidades de comprar en él que las personas que no los veían. Lo que no vio fue si los anuncios (que se mostraron millones de veces) hacían que la gente visitara su sitio. Al fin y al cabo, los anuncios se mostraban deliberadamente a posibles compradores de eBay. Para separar la correlación de la causalidad, eBay llevó a cabo un gran experimento en el que anunciaba aleatoriamente a algunas personas y no a otras. ¿El resultado? Resulta que los anuncios eran en su mayor parte inútiles, porque la gente que los veía ya conocía eBay y habría comprado allí de todos modos.
Los algoritmos capaces de hacer predicciones no eliminan la necesidad de tener cuidado a la hora de establecer conexiones entre causa y efecto; no sustituyen a los experimentos controlados. Pero lo que pueden hacer es extremadamente poderoso: identificar patrones demasiado sutiles para ser detectados por la observación humana y utilizar esos patrones para generar información precisa e informar mejor a la toma de decisiones. El desafío para nosotros es entender sus riesgos y limitaciones y, mediante una gestión eficaz, aprovechar su notable potencial.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.