¿Quiere decisiones menos sesgadas? Utilice algoritmos.
por Alex P. Miller

Orlagh Murphy/Getty Images
Se está produciendo una revolución silenciosa. A diferencia de gran parte de cobertura de prensa sobre inteligencia artificial, esta revolución no tiene que ver con el ascenso de un ejército de androides inteligentes. Más bien, se caracteriza por un aumento constante de la automatización de los procesos de toma de decisiones tradicionalmente basados en las personas en las organizaciones de todo el país. Mientras que los avances como AlphaGo Zero hacen titulares pegadizos, son las técnicas estadísticas y de aprendizaje automático bastante convencionales (mínimos cuadrados ordinarios, regresión logística, árboles de decisiones) las que añaden un valor real a los resultados de muchas organizaciones. Las aplicaciones en el mundo real van desde los diagnósticos médicos y las sentencias judiciales hasta la contratación de profesionales y la asignación de recursos en las agencias públicas.
¿Es buena esta revolución? Parece que hay un grupo creciente de autores, académicos y periodistas que responderían negativamente. Los títulos de libros de este género incluyen Armas de destrucción matemática, Automatizar la desigualdad, y La sociedad de la caja negra. También ha habido una oleada de artículos largos al estilo de una exposición, como» Sesgo de la máquina,” “ La austeridad es un algoritmo» y»¿Los algoritmos están creando la nueva infraestructura del racismo?» En el centro de este trabajo está la preocupación de que los algoritmos suelen ser herramientas opacas, sesgadas e irresponsables que se utilizan en aras del poder institucional. Entonces, ¿qué tan preocupado debería preocuparnos por el auge moderno de los algoritmos?
Centro Insight
Adopción de la IA
Patrocinado por SAS
Cómo utilizan las empresas la inteligencia artificial en sus operaciones comerciales.
Estas críticas e investigaciones suelen ser perspicaces e iluminadoras, y han hecho un buen trabajo al disiparnos de la idea de que los algoritmos son puramente objetivos. Pero hay un patrón entre estos críticos, y es que rara vez se preguntan qué tan bien funcionarían los sistemas que analizan sin algoritmos. Y esa es la pregunta más relevante para los profesionales y los responsables políticos: ¿Cómo se comparan el sesgo y el rendimiento de los algoritmos con el status quo? En lugar de simplemente preguntarnos si los algoritmos son defectuosos, deberíamos preguntarnos cómo se comparan estos defectos con los de los seres humanos.
¿Qué dice la investigación?
Hay una gran cantidad de investigaciones sobre la toma de decisiones algorítmicas que se remontan a varias décadas. Y todos los estudios existentes sobre este tema tienen una conclusión notablemente similar: los algoritmos están menos sesgados y son más precisos que los humanos a los que sustituyen. A continuación se muestra un ejemplo de la investigación sobre lo que ocurre cuando a los algoritmos se les da el control de las tareas que tradicionalmente realizaban los humanos (el énfasis es mío):
- En 2002 un equipo de economistas estudió el impacto de los algoritmos de suscripción automatizados en el sector de los préstamos hipotecarios. Sus principales conclusiones fueron «que los sistemas [de suscripción automática] predicen el impago con más precisión que los aseguradores manuales» y «que este aumento de la precisión se traduce en tasas de aprobación de los prestatarios más altas, especialmente para los solicitantes desatendidos». En lugar de marginar a los compradores de vivienda tradicionalmente desatendidos, el sistema algorítmico fue el que más benefició a este segmento de consumidores.
- Bo Cowgill llegó a una conclusión similar en la Escuela de Negocios de Columbia cuando estudiaba el rendimiento de un algoritmo de selección de puestos de trabajo en una empresa de software ( próxima investigación). Cuando la empresa lanzó el algoritmo para decidir qué candidatos debían ser entrevistados, el algoritmo en realidad prefería a los candidatos «no tradicionales» mucho más que los evaluadores humanos. En comparación con los humanos, el algoritmo mostró un sesgo significativamente menor contra los candidatos que estaban infrarrepresentados en la empresa (por ejemplo, los que no tenían referencias personales ni títulos de universidades prestigiosas).
- En el contexto de las audiencias de libertad bajo fianza previas al juicio en la ciudad de Nueva York, un equipo de destacados científicos de la computación y economistas determinó que los algoritmos tienen el potencial de lograr decisiones significativamente más equitativas que los jueces que actualmente toman decisiones sobre la libertad bajo fianza, con «reducciones de la tasa de encarcelamiento [de] hasta un 41,9% sin aumento de las tasas de criminalidad». También descubrieron que en su modelo «todas las categorías de delitos, incluidos los delitos violentos, muestran reducciones [en las tasas de encarcelamiento]; y estos avances se pueden lograr y, al mismo tiempo, reducir las disparidades raciales».
- La revista New York Times informó recientemente una historia larga para responder a la pregunta: «¿Puede un algoritmo saber cuándo los niños están en peligro?» Resulta que la respuesta es «sí» y que los algoritmos pueden realizar esta tarea con mucha más precisión que los humanos. En lugar de exacerbar los perniciosos prejuicios raciales asociados con algunos servicios gubernamentales, «la experiencia de Allegheny sugiere que su herramienta de detección es menos mala para sopesar los sesgos que los evaluadores humanos».
- Por último, al analizar los datos históricos de las empresas que cotizan en bolsa, un equipo de profesores de finanzas se propuso crear un algoritmo para elegir a los mejores miembros del consejo de administración de una empresa determinada. Los investigadores no solo descubrieron que las empresas obtendrían mejores resultados con miembros del consejo de administración seleccionados algorítmicamente, sino que en comparación con el algoritmo propuesto, «descubrieron que las empresas [sin algoritmos] tienden a elegir directores que tienen muchas más probabilidades de ser hombres, tienen una gran red, tienen mucha experiencia en juntas directivas, actualmente forman parte de más juntas y tienen experiencia en finanzas».
En cada uno de estos estudios de casos, los científicos de datos hicieron lo que parece alarmante: entrenaron sus algoritmos en datos del pasado que, sin duda, están sesgados por prejuicios históricos. Entonces, ¿qué pasa aquí? ¿Cómo es que en tantos ámbitos diferentes (solicitudes de crédito, selección de empleo, justicia penal, asignación de recursos públicos y gobierno corporativo) los algoritmos pueden reducir los sesgos, cuando muchos comentaristas nos han dicho que los algoritmos deberían hacer lo contrario?
Los seres humanos toman decisiones notablemente malas
Un secreto no tan oculto detrás de los algoritmos mencionados anteriormente es que en realidad son sesgado. Pero los humanos a los que sustituyen son significativamente más sesgado. Después de todo, ¿de dónde vienen los sesgos institucionales si no de los humanos que tradicionalmente han estado al mando?
Pero los humanos no pueden ser tan malos, ¿verdad? Sí, puede que estemos sesgados, pero seguro que hay alguna medida del desempeño en la que tomamos buenas decisiones. Desafortunadamente, décadas de investigación psicológica sobre el juicio y la toma de decisiones han demostrado hora y hora otra vez que los humanos juzgan muy mal la calidad en una amplia gama de contextos. Gracias a la obra pionera de Paul Meehl (y trabajo de seguimiento de Robyn Dawes), sabemos al menos desde la década de 1950 que los modelos matemáticos muy simples superan a los supuestos expertos a la hora de predecir resultados importantes en entornos clínicos.
En todos los ejemplos mencionados anteriormente, los humanos que solían tomar decisiones eran tan notablemente malos que sustituirlos por algoritmos aumentaba la precisión y reducción de los sesgos institucionales. Esto es lo que los economistas llaman un Mejora de Pareto , en el que una política supera a la alternativa en todos los resultados que nos importan. Si bien a muchos críticos les gusta dar a entender que las organizaciones modernas buscan la eficiencia operativa y una mayor productividad a expensas de la equidad y la equidad, todas las pruebas disponibles en estos contextos sugieren que no existe tal compensación: los algoritmos ofrecen más eficiencia y resultados más equitativos. Si algo lo alarma, debería ser el hecho de que tantas decisiones importantes las toman seres humanos que lo sabemos son inconsistentes, sesgados y fenomenalmente malos tomadores de decisiones.
Mejorar el status quo
Por supuesto, deberíamos hacer todo lo posible para erradicar el sesgo institucional y su perniciosa influencia en los algoritmos de toma de decisiones. Las críticas a la toma de decisiones algorítmicas han dado lugar a una nueva y rica ola de investigaciones sobre el aprendizaje automático que se toman más en serio las consecuencias sociales y políticas de los algoritmos. Están surgiendo técnicas novedosas en la estadística y el aprendizaje automático que están diseñadas específicamente para abordar las preocupaciones en torno a la discriminación algorítmica. Hay incluso una conferencia académica cada año, en el que los investigadores no solo discuten los desafíos éticos y sociales del aprendizaje automático, sino que también presentan nuevos modelos y métodos para garantizar que los algoritmos tengan un impacto positivo en la sociedad. Es probable que este trabajo adquiera aún más importancia a medida que los algoritmos menos transparentes, como el aprendizaje profundo, se hagan más comunes.
Pero incluso si la tecnología no puede resolver por completo los males sociales del sesgo institucional y la discriminación perjudicial, las pruebas revisadas aquí sugieren que, en la práctica, puede desempeñar un papel pequeño pero mensurable en la mejora del status quo. No se trata de un argumento a favor del absolutismo algorítmico ni de una fe ciega en el poder de las estadísticas. Si descubrimos en algunos casos que los algoritmos tienen un grado de sesgo inaceptablemente alto en comparación con los procesos de toma de decisiones actuales, seguir las pruebas y mantener el paradigma actual no hace daño. Sin embargo, el compromiso de seguir las pruebas va en ambos sentidos, y deberíamos estar dispuestos a aceptar que, en algunos casos, los algoritmos formarán parte de la solución para reducir los sesgos institucionales. Así que la próxima vez que lea un titular sobre los peligros del sesgo algorítmico, recuerde mirarse al espejo y recordar que los peligros del sesgo humano probablemente sean aún peores.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.