Los algoritmos de contratación no son neutrales
por Gideon Mann, Cathy O'Neil
Cada vez más, los directores de recursos humanos confían en algoritmos basados en datos para ayudar a tomar decisiones de contratación y para navegar por una enorme cantidad de posibles candidatos a un puesto de trabajo. En algunos casos, estos sistemas de software pueden ser tan eficaces a la hora de analizar los currículums y evaluar las pruebas de personalidad que El 72% de los currículums se eliminan antes de que un humano los vea. Pero este nivel de eficiencia tiene inconvenientes. Los algoritmos creados por el hombre son falibles y pueden reforzar sin darse cuenta la discriminación en las prácticas de contratación. Cualquier director de recursos humanos que utilice un sistema de este tipo tiene que ser consciente de sus limitaciones y tener un plan para abordarlas.
Los algoritmos son, en parte, nuestras opiniones incrustadas en el código. Reflejan los sesgos y prejuicios humanos que conducen a errores e interpretaciones erróneas en el aprendizaje automático. Este sesgo se refleja en numerosos aspectos de nuestras vidas, incluidos los algoritmos utilizados para el descubrimiento electrónico, las evaluaciones de los profesores, el seguro del automóvil, las clasificaciones crediticias y el ingreso a la universidad.
Los algoritmos implementados en primera línea de la toma de decisiones de RRHH pueden reducir los costes y agilizar la investigación de antecedentes en departamentos o empresas ajetreados con grandes necesidades de contratación, pero se corre el riesgo de que acaben excluyendo a los solicitantes por motivos de género, raza, edad, discapacidad o servicio militar, todas clases protegidas por la legislación laboral.
Centro de información
La próxima era de la analítica
Patrocinado por SAS
Aprovechar el poder del aprendizaje automático y otras tecnologías.
En esencia, los algoritmos imitan la toma de decisiones humanas. Por lo general, se les entrena para aprender de los éxitos del pasado, lo que puede incorporar los prejuicios existentes. Por ejemplo, en un famoso experimento, los reclutadores revisaron currículums idénticos y seleccionaron a más candidatos con nombres que suenan blancos que con nombres que suenan negros. Si el algoritmo aprende el aspecto de una «buena» contratación basándose en ese tipo de datos sesgados, tomará decisiones de contratación sesgadas. El resultado es que el software de selección automática de currículums suele evaluar a los solicitantes de empleo basándose en criterios subjetivos, como el nombre de la persona. Al aferrarse a las características incorrectas, este enfoque descuenta el verdadero potencial del candidato.
En otras palabras, los algoritmos no son neutrales. Cuando los humanos crean un software de selección algorítmica, pueden determinar involuntariamente qué candidatos serán seleccionados o rechazados basándose en información anticuada (que se remonta a una época en la que había menos mujeres en la fuerza laboral, por ejemplo), lo que lleva a un resultado legal y moralmente inaceptable.
Una forma de evitar el sesgo algorítmico es dejar de tomar decisiones rigurosas basándose únicamente en un algoritmo. Fomentar una revisión humana que pida a personas con experiencia que hayan recibido formación sobre prejuicios que supervisen la selección y la evaluación. Deje que las decisiones las guíe una persona basada en algoritmos, y no solo por un algoritmo.
Si el ojo humano no puede revisar todas las decisiones de RRHH, su primer paso debería ser aceptar que los algoritmos son imperfectos. Si bien hay buenos algoritmos que se han calibrado adecuadamente para medir los resultados de manera eficiente y precisa, ese éxito no se produce por casualidad. Tenemos que auditar y modificar los algoritmos para que no perpetúen las desigualdades en las empresas y la sociedad. Considere la posibilidad de asignar un equipo o contratar a profesionales externos para auditar los algoritmos clave. El uso de varios algoritmos también podría ayudar a limitar los puntos ciegos. De esta forma, ningún indicador, como la puntuación del SAT, excluiría a un candidato cualificado.
Además, puede abogar por un sistema de observación y control más riguroso. Realice periódicamente comprobaciones aleatorias de las decisiones de los currículums automáticos y sométalas a una exhaustiva revisión humana para ver qué candidatos ha estado seleccionando el algoritmo y por qué, haciendo especial hincapié en descubrir posibles casos de sesgo.
Por último, revise manualmente con regularidad las correlaciones que aprende la máquina y elimine de forma selectiva las que puedan parecer sesgadas. No debe basar sus decisiones de contratación en las correlaciones relacionadas con el nombre o las actividades extracurriculares de una persona, por ejemplo, ya que pueden ser indicativas de la edad, la raza o la clase del candidato, no de sus cualificaciones.
Los directores de recursos humanos también deberían conocer los algoritmos que pueden ayudar a mitigar sus propios sesgos humanos. Por ejemplo, a veces el sesgo empieza con la oferta de trabajo. Sin darse cuenta, los escritores rocían los textos con palabras clave o frases que suenan modernas, pero contienen señales que disuaden a ciertos candidatos de postularse para el puesto. En la contratación tecnológica, fragmentos como «Se busca un ninja de la programación» tienen una connotación que probablemente disminuya el interés de los candidatos mayores y de las mujeres. A muchas empresas les preocupan tanto los anuncios con significantes ocultos que utilizan plataformas de aprendizaje automático como Textio (una empresa de cartera de la beta de Bloomberg) para marcar palabras que pueden ser problemáticas y sugerir alternativas que funcionen mejor. Los programas como Unitive incluyen un software que ayuda a los empleadores a escribir descripciones de puestos inclusivas y hace que los directores de contratación rindan cuentas durante todo el proceso de entrevista si ignoran los criterios que consideran importantes.
¿Se pueden eliminar por completo los prejuicios y los prejuicios de la contratación? Tanto para los métodos algorítmicos como humanos, la respuesta es «probablemente no». Pero a medida que el big data, los algoritmos de aprendizaje automático y el análisis de personas adquieren un papel cada vez más influyente en la contratación, los profesionales de RRHH deben considerar las consecuencias de estos sistemas y asegurarse de que siempre reflejan las mejores intenciones humanas.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.