PathMBA Vault

Diversity and inclusion

Uso del análisis de personas para crear un lugar de trabajo equitativo

por David Anderson, Margrét V. Bjarnadóttir, David Gaddis Ross

Uso del análisis de personas para crear un lugar de trabajo equitativo

La analítica de personas, la aplicación de métodos científicos y estadísticos a los datos conductuales, tiene sus orígenes en el clásico de Frederick Winslow Taylor Los principios de la gestión científica en 1911, que pretendía aplicar métodos de ingeniería a la gestión del personal. Pero no fue hasta un siglo después, tras los avances en la potencia de los ordenadores, los métodos estadísticos y, especialmente, la inteligencia artificial (IA), que el campo realmente explotó en potencia, profundidad y aplicación generalizada, especialmente, pero no solo, en la gestión de los recursos humanos (RRHH). Al automatizar la recopilación y el análisis de grandes conjuntos de datos, la IA y otras herramientas de análisis prometen mejorar cada fase del proceso de recursos humanos, desde la contratación y la compensación hasta el ascenso, la formación y la evaluación.

Ahora, los algoritmos se utilizan para ayudar a los directivos a medir la productividad y a tomar decisiones importantes en cuanto a las oportunidades de contratación, compensación, ascenso y formación, todo lo cual puede cambiarle la vida a los empleados. Las empresas utilizan esta tecnología para identificar y cerrar las brechas salariales según el género, la raza u otras categorías demográficas importantes. Los profesionales de RRHH utilizan de forma rutinaria herramientas basadas en la IA para analizar los currículums con el fin de ahorrar tiempo, mejorar la precisión y descubrir patrones ocultos en las cualificaciones que se asocian con un mejor (o peor) desempeño futuro. Los modelos basados en la IA se pueden utilizar incluso para sugerir qué empleados podrían dejar de fumar en un futuro próximo.

Sin embargo, a pesar de lo que prometen las herramientas de análisis de personas, también pueden llevar a los gerentes por un mal camino.

Amazon tuvo que tirar a la basura una herramienta de selección de currículums creada por sus ingenieros porque era sesgado contra las mujeres. O piense en LinkedIn, que utilizan en todo el mundo los profesionales para establecer contactos y buscar trabajo y los profesionales de RRHH para contratar. La función de autocompletar de la plataforma para su barra de búsqueda era descubrió que sugería que los nombres femeninos como «Stephanie», sustituya por nombres masculinos como «Stephen». Por último, por el lado de la contratación, un anuncio en las redes sociales sobre oportunidades de campo en Ciencia, Tecnología, Ingeniería y Matemáticas (STEM) que había sido cuidadosamente diseñado para ser neutral en cuanto al género se mostró desproporcionadamente a los hombres mediante un algoritmo diseñado para maximizar el valor para los presupuestos de publicidad de los reclutadores, porque las mujeres son generalmente más responde a los anuncios y, por lo tanto, los anuncios que se les muestran son más caros.

En cada uno de estos ejemplos, se produjo una interrupción en el proceso analítico que produjo un sesgo no deseado (y a veces grave) en contra de un grupo en particular. Sin embargo, estas averías pueden y deben evitarse. Para aprovechar el potencial del análisis de personas basado en la IA, las empresas deben entender las causas fundamentales del sesgo algorítmico y cómo actúan en las herramientas de análisis de personas comunes.

El proceso analítico

Los datos no son neutrales. Las herramientas de análisis de personal generalmente se basan en los datos históricos del empleador sobre la contratación, la retención, los ascensos y la compensación de sus empleados. Estos datos siempre reflejarán las decisiones y actitudes del pasado. Por lo tanto, al intentar crear el lugar de trabajo del mañana, tenemos que tener en cuenta cómo nuestros datos retrospectivos pueden reflejar tanto antiguos como existentes sesgos y puede que no capte plenamente las complejidades de la gestión de personas en una fuerza laboral cada vez más diversa.

Los datos pueden tener un sesgo explícito directamente incorporado; por ejemplo, las evaluaciones del desempeño de su empresa pueden haber estado históricamente sesgadas en contra de un grupo en particular. A lo largo de los años, ha corregido ese problema, pero si las evaluaciones sesgadas se utilizan para entrenar una herramienta de IA, el algoritmo heredará y propagará los sesgos hacia adelante.

También hay fuentes de sesgo más sutiles. Por ejemplo, el GPA de pregrado podría usarse como indicador de inteligencia, o las licencias o certificados ocupacionales pueden ser una medida de las habilidades. Sin embargo, estas medidas están incompletas y, a menudo, contienen sesgos y distorsiones. Por ejemplo, los solicitantes de empleo que tuvieron que trabajar durante la universidad (que tienen más probabilidades de provenir de entornos con ingresos más bajos) pueden haber obtenido calificaciones más bajas, pero de hecho pueden ser los mejores candidatos porque han demostrado su deseo de superar los obstáculos. Comprender los posibles desajustes entre lo que quiere medir (por ejemplo, la inteligencia o la capacidad de aprendizaje) y lo que realmente mide (por ejemplo, el rendimiento en los exámenes escolares) es importante para crear cualquier herramienta de análisis de personas, especialmente cuando el objetivo es crear un lugar de trabajo más diverso.

El rendimiento de una herramienta de análisis de personas es un producto tanto de los datos que suministra como del algoritmo que utiliza. Aquí ofrecemos tres conclusiones que debe tener en cuenta a la hora de gestionar a su personal.

En primer lugar, es probable que un modelo que maximice la calidad general de la predicción (el enfoque más común) funcione mejor con respecto a las personas de los grupos demográficos mayoritarios, pero peor con los grupos menos representados. Esto se debe a que los algoritmos suelen maximizar la precisión general y, por lo tanto, el rendimiento de la población mayoritaria tiene más peso que el rendimiento de la población minoritaria a la hora de determinar los parámetros del algoritmo. Un ejemplo podría ser un algoritmo utilizado en una fuerza laboral compuesta en su mayoría por personas casadas o solteras y sin hijos; el algoritmo puede determinar que un aumento repentino del uso de los días personales indica una alta probabilidad de dejar de fumar, pero esta conclusión puede no aplicarse a los padres solteros que necesitan ausentarse de vez en cuando porque su hijo está enfermo.

En segundo lugar, no existe tal cosa como un modelo verdaderamente «ciego a la raza» o «ciego al género». De hecho, omitir la raza o el género de forma explícita en un modelo puede incluso empeorar las cosas.

Considere este ejemplo: imagine que su herramienta de análisis de personas basada en la IA, a la que ha evitado con cuidado dar información sobre el género, desarrolla un sólido historial de predicción de qué empleados son propensos a dejar de fumar poco después de ser contratados. No está seguro de a qué se ha aferrado exactamente el algoritmo (la IA funciona con frecuencia como una caja negra para los usuarios), pero evita contratar a personas que el algoritmo etiqueta como de alto riesgo y ve una buena caída en el número de nuevos empleados que renuncian poco después de unirse. Sin embargo, después de algunos años, se le presenta una demanda por discriminar a las mujeres en su proceso de contratación. Resulta que el algoritmo seleccionaba desproporcionadamente a las mujeres de un código postal en particular que carecía de una guardería, lo que creaba una carga para las madres solteras. Si tan solo lo hubiera sabido, podría haber resuelto el problema ofreciendo una guardería cerca del trabajo, no solo evitando la demanda sino también dándose una ventaja competitiva a la hora de contratar mujeres de esta zona.

En tercer lugar, si las categorías demográficas, como el género y la raza, se distribuyen de manera desproporcionada en su organización, como es habitual (por ejemplo, si la mayoría de los directivos en el pasado eran hombres y la mayoría de los trabajadores mujeres), ni siquiera los modelos cuidadosamente diseñados conducirán a la igualdad de resultados entre los grupos. Esto se debe a que, en este ejemplo, un modelo que identifica a los futuros directivos tiene más probabilidades de clasificar erróneamente a las mujeres como inadecuado para la dirección, pero clasifica erróneamente a los hombres como adecuado para la dirección, aunque el género no forme parte de los criterios de la modelo. La razón, en una palabra, es que es probable que los criterios de selección del modelo estén correlacionados tanto con el género como con la aptitud directiva, por lo que el modelo tenderá a ser «incorrecto» de diferentes maneras para las mujeres y los hombres.

Cómo hacerlo bien

Por las razones anteriores (y otras), debemos ser especialmente conscientes de las limitaciones de los modelos basados en la IA y supervisar su aplicación en todos los grupos demográficos. Esto es especialmente importante para Recursos Humanos, porque, a diferencia de las aplicaciones generales de IA, es muy probable que los datos que las organizaciones utilizan para entrenar las herramientas de IA reflejen los desequilibrios que Recursos Humanos se esfuerza actualmente por corregir. Como tal, las empresas deben prestar mucha atención a quién está representado en los datos a la hora de crear y supervisar las aplicaciones de IA. Más concretamente, deberían analizar cómo la composición de los datos de entrenamiento puede estar distorsionando las recomendaciones de la IA en una dirección u otra.

Una herramienta que puede resultar útil en ese sentido es un panel de sesgos que analiza por separado el rendimiento de una herramienta de análisis de personas en los diferentes grupos (por ejemplo, la raza), lo que permite detectar pronto los posibles sesgos. Este panel destaca, en los diferentes grupos, tanto el rendimiento estadístico como el impacto. Por ejemplo, para una aplicación que apoya la contratación, el panel puede resumir la precisión y el tipo de errores que comete la modelo, así como la fracción de cada grupo que consiguió una entrevista y, finalmente, fue contratado.

Además de supervisar las métricas de rendimiento, los gerentes pueden comprobar explícitamente los sesgos. Una forma de hacerlo es excluir una variable demográfica en particular (por ejemplo, el género) en el entrenamiento de la herramienta basada en la IA, pero luego explícitamente incluir esa variable en un análisis posterior de los resultados. Si el género está altamente correlacionado con los resultados (por ejemplo, si es desproporcionadamente probable que se recomiende un aumento a un género), es una señal de que la herramienta de inteligencia artificial podría ser implícitamente incorporar el género de una manera indeseable. Puede ser que la herramienta haya identificado de manera desproporcionada a las mujeres como candidatas a aumentos porque las mujeres suelen estar mal pagadas en su organización. Si es así, la herramienta de inteligencia artificial le ayuda a resolver un problema importante. Pero también podría ser que la herramienta de inteligencia artificial esté reforzando un sesgo existente. Será necesario investigar más a fondo para determinar la causa subyacente.

Es importante recordar que ningún modelo está completo. Por ejemplo, es probable que la personalidad de un empleado afecte a su éxito en la empresa sin que aparezca necesariamente en los datos de recursos humanos de ese empleado. Los profesionales de RRHH tienen que estar atentos a estas posibilidades y documentarlas en la medida de lo posible. Si bien los algoritmos pueden ayudar a interpretar los datos del pasado e identificar patrones, la analítica de personas sigue siendo un campo centrado en las personas y, en muchos casos, especialmente en los más difíciles, las decisiones finales las toman los humanos, como se refleja en la popular frase actual «análisis humano en bucle».

Para ser eficaces, estas personas tienen que ser conscientes de los sesgos del aprendizaje automático y de las limitaciones del modelo, supervisar el despliegue de los modelos en tiempo real y estar preparados para tomar las medidas correctivas necesarias. Un proceso que tenga en cuenta los prejuicios incorpora el juicio humano en cada paso del análisis, incluido el conocimiento de cómo las herramientas de inteligencia artificial pueden amplificar los sesgos a través de ciclos de retroalimentación. Un ejemplo concreto es cuando las decisiones de contratación se basan en el «ajuste cultural» y cada ciclo de contratación atrae a más empleados similares a la organización, lo que a su vez hace que el ajuste cultural sea aún más limitado, lo que podría ir en contra de los objetivos de diversidad. En este caso, es posible que sea necesario ampliar los criterios de contratación además de perfeccionar la herramienta de IA.

La analítica de personas, especialmente basada en la IA, es una herramienta increíblemente poderosa que se ha vuelto indispensable en los RRHH modernos. Pero los modelos cuantitativos pretenden ayudar, no reemplazar, el juicio humano. Para aprovechar al máximo las herramientas de análisis de la IA y otras personas, tendrá que supervisar de forma coherente el funcionamiento de la aplicación en tiempo real, los criterios explícitos e implícitos que se utilizan para tomar decisiones y entrenar la herramienta y si los resultados afectan a los diferentes grupos de manera diferente y no deseada. Al hacer las preguntas correctas sobre los datos, el modelo, las decisiones y los proveedores de software, los gerentes pueden aprovechar con éxito el poder del análisis de personas para crear los lugares de trabajo equitativos y de alto rendimiento del mañana.