Las implicaciones legales y éticas del uso de la IA en la contratación
por Ben Dattner, Tomas Chamorro-Premuzic, Richard Buchband, Lucinda Schettler

Peter Dazeley/Getty Images
Las innovaciones digitales y los avances en la IA han producido una serie de identificación y evaluación de talentos novedosos herramientas. Muchas de estas tecnologías prometen ayudar a las organizaciones a mejorar su capacidad para encontrar a la persona adecuada para el trabajo correcto y a descartar a las personas equivocadas para los trabajos equivocados, de forma más rápida y barata que nunca.
Estas herramientas ponen en manos de las organizaciones un poder sin precedentes para tomar decisiones sobre el capital humano basadas en los datos. También tienen el potencial de democratizar los comentarios, ya que ofrecen a millones de candidatos a un puesto de trabajo información basada en datos sobre sus puntos fuertes, sus necesidades de desarrollo y su posible adaptación profesional y organizacional. En en particular, hemos visto el rápido crecimiento (y la correspondiente inversión de capital riesgo) en las evaluaciones basadas en juegos, los bots para eliminar las publicaciones en las redes sociales, el análisis lingüístico de las muestras de escritura de los candidatos y las entrevistas basadas en vídeo que utilizan algoritmos para analizar el contenido del discurso, el tono de voz, los estados emocionales, los comportamientos no verbales y las pistas temperamentales.
Centro de información
Interactuar con la IA
Patrocinado por Qlik
Cómo trabajarán juntos los humanos y las máquinas.
Si bien estas novedosas herramientas están alterando el ámbito de la contratación y la evaluación, dejan muchas preguntas sin respuesta sobre su precisión y las implicaciones éticas, legales y de privacidad que introducen. Esto es especialmente cierto si se compara con evaluaciones psicométricas más antiguas, como el NEO-PI-R, The Wonderlic Test, el test de matrices progresivas de los Ravens o el inventario de personalidad de Hogan, que han sido de origen científico y validados cuidadosamente con respecto a los puestos pertinentes, identificando asociaciones fiables entre las puntuaciones de los solicitantes y su posterior desempeño laboral (publicando las pruebas en revistas académicas independientes y confiables). Recientemente, incluso ha habido interés y preocupación en el Senado de los Estados Unidos por si las nuevas tecnologías (específicamente, las tecnologías de análisis facial) podrían tener implicaciones negativas para igualdad de oportunidades entre los candidatos a un puesto.
En este artículo, nos centramos en las posibles repercusiones de las nuevas tecnologías en la privacidad de los candidatos a un puesto de trabajo, así como en las implicaciones para la protección de los candidatos en virtud de la Ley de estadounidenses con discapacidades y otras leyes laborales federales y estatales. Los empleadores reconocen que no pueden o no deben preguntar a los candidatos sobre su estado familiar u orientación política, o si están embarazadas, heterosexuales, gays, tristes, solos, deprimidos, enfermos físicos o mentales, beben demasiado, abusan de las drogas o duermen muy poco. Sin embargo, nuevas tecnologías puede que ya sea capaz de discernir muchos de estos factores de forma indirecta y sin el debido (o incluso ningún) consentimiento.
Antes de ahondar en las ambigüedades actuales del nuevo y valiente mundo de la valoración y evaluación de los candidatos a un puesto de trabajo, es útil echar un vistazo al pasado. Evaluaciones psicométricas han estado en uso durante más de 100 años y se han utilizado más ampliamente como resultado de la Army Alpha , que clasificaba a los reclutas en categorías y determinaba sus probabilidades de tener éxito en varios puestos. Tradicionalmente, la psicometría se dividía en tres categorías amplias: capacidad o inteligencia cognitiva, personalidad o temperamento y diagnóstico clínico o de salud mental.
Desde la adopción de la La Ley de estadounidenses con discapacidades (ADA) de 1990, En general, a los empleadores se les prohíbe preguntar sobre la discapacidad física, la salud mental o el diagnóstico clínico o utilizarlos como factor en las evaluaciones de los candidatos previas al empleo, y las empresas que lo han hecho han sido demandadas y censuradas. En esencia, se ha determinado que las discapacidades —ya sean físicas o mentales— son información «privada» que los empleadores no pueden consultar en la fase previa a la contratación, del mismo modo que los empleadores no deben hacer a los solicitantes preguntas intrusivas sobre su vida privada y no pueden tener en cuenta la información demográfica privada a la hora de tomar decisiones de contratación.
Se ha descubierto que las pruebas de capacidad cognitiva e inteligencia son un fiable y válido predictor del éxito laboral en una amplia variedad de ocupaciones. Sin embargo, este tipo de evaluaciones pueden resultar discriminatorias si afectan negativamente a ciertos grupos protegidos, como los que se definen por género, raza, edad u origen nacional. Si un empleador utiliza una evaluación que se ha determinado que tiene un impacto adverso, que se define según las puntuaciones relativas de los diferentes grupos protegidos, el empleador tiene que demostrar que la metodología de evaluación está relacionada con el trabajo y predice el éxito en los puestos específicos en cuestión.
Es menos probable que las evaluaciones de la personalidad expongan a los empleadores a una posible responsabilidad por discriminación, ya que hay poca o ninguna correlación entre las características de la personalidad y las variables demográficas protegidas o las discapacidades. También cabe señalar que la relación entre la personalidad y el desempeño laboral depende de la contexto (por ejemplo, tipo de puesto o trabajo).
Por desgracia, hay mucha menos información sobre la nueva generación de herramientas de talento que se utilizan cada vez más en la evaluación previa a la contratación. Muchas de estas herramientas han surgido como innovaciones tecnológicas, más que a partir de métodos o programas de investigación de origen científico. Como resultado, no siempre está claro lo que evalúan, si sus hipótesis subyacentes son válidas o por qué se espera que predigan el desempeño de los candidatos a un puesto. Por ejemplo, las propiedades físicas del habla y de la voz humana, que durante mucho tiempo se asocian a elementos de personalidad — se han relacionado con diferencias individuales en el desempeño laboral. Si una herramienta muestra una preferencia por los patrones del habla, como una cadencia o un tono vocal consistentes o un tono de voz «amable» que no tenga un impacto adverso en los candidatos a un puesto de trabajo de un grupo protegido legalmente, entonces no hay ningún problema legal, pero es posible que estas herramientas no estén validadas científicamente y, por lo tanto, no controlan el posible impacto adverso discriminatorio, lo que significa que el empleador puede incurrir en responsabilidad por cualquier confianza ciega. Además, aún no hay hipótesis convincentes ni conclusiones defendibles sobre si sería ético descartar a las personas en función de sus voces, que son atributos personales determinados fisiológicamente y en gran medida inmutables.
Del mismo modo, se ha descubierto que la actividad en las redes sociales (por ejemplo, el uso de Facebook o Twitter) refleja la inteligencia y personalidad, incluidos sus rasgos del lado oscuro. Pero, ¿es ético extraer estos datos con fines de contratación cuando, por lo general, los usuarios han utilizado esas aplicaciones para diferentes propósitos y es posible que no hayan dado su consentimiento para analizar los datos y sacar conclusiones privadas de sus publicaciones públicas?
Cuando se utilizan en el contexto de la contratación, las nuevas tecnologías plantean una serie de nuevas cuestiones éticas y legales en torno a la privacidad, que creemos que deberían discutirse y debatirse públicamente, a saber:
1) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con los atributos personales?
A medida que la tecnología avance, los macrodatos y la IA seguirán siendo capaces de determinar las variables «proxy» de los atributos privados y personales con mayor precisión. Hoy, por ejemplo, los «me gusta» de Facebook se pueden utilizar para inferir orientación sexual y raza con una precisión considerable. La afiliación política y las creencias religiosas se identifican con la misma facilidad. ¿Podrían las empresas caer en la tentación de utilizar herramientas como estas para seleccionar a los candidatos, creyendo que, dado que las decisiones no se toman directamente en función de las características protegidas, no son procesables legalmente? Si bien un empleador no puede infringir ninguna ley al simplemente discernir la información personal de un solicitante, la empresa puede quedar vulnerable a la exposición legal si toma decisiones laborales adversas al basarse en cualquier categoría protegida, como el lugar de nacimiento, la raza o el idioma materno, o basándose en información privada que no tiene derecho a tener en cuenta, como una posible enfermedad física o mental. No está claro cómo abordarán los tribunales las situaciones en las que los empleadores se han basado en herramientas que utilizan estas variables sustitutivas, pero el hecho es que es ilegal tomar una medida adversa basándose en ciertas características protegidas o privadas, sin importar cómo se hayan aprendido o deducido.
Esto también podría aplicarse al software de reconocimiento facial, como lo ha hecho recientemente investigación predice que la IA que lee rostros pronto podrá discernir la orientación sexual y política de los candidatos, así como los «estados internos», como el estado de ánimo o las emociones, con un alto grado de precisión. ¿Cómo podría la solicitud del Ley de estadounidenses con discapacidades ¿cambiar? Además, el Ley de protección del polígrafo de los empleados en general, prohíbe a los empleadores utilizar las pruebas de detección de mentiras como herramienta de evaluación previa al empleo y el Ley de no discriminación por información genética prohíbe a los empleadores utilizar la información genética en las decisiones laborales. Pero, ¿y si las herramientas tecnológicas antes mencionadas pudieran determinar exactamente el mismo tipo de información sobre la verdad, las mentiras o los atributos genéticos?
2) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con el estilo de vida y las actividades?
Los empleadores ahora pueden acceder a información como el «registro» en Internet de un candidato en su iglesia todos los domingos por la mañana, la opinión de otro candidato sobre el centro de cuidados para personas con demencia en el que ha ingresado a su padre mayor y la solicitud de divorcio de un tercero ante un tribunal civil. Todas estas cosas, y muchas más, se pueden descubrir fácilmente en la era digital. Los macrodatos nos siguen a todas partes en Internet y recopilan y recopilan información que puede dividirse con herramientas que no podemos ni imaginarnos todavía, herramientas que podrían informar a los futuros empleadores sobre nuestra aptitud (o falta de ella) para ciertos puestos. Y el big data solo va a crecer; según los expertos, El 90% de los datos del mundo se generó solo en los últimos dos años. Con la expansión de los datos viene la posible expansión del uso indebido y la consiguiente discriminación, deliberada o no intencional.
A diferencia de la UE, que ha armonizado su enfoque de la privacidad en virtud del Reglamento General de Protección de Datos (RGPD), EE. UU. se basa en un enfoque heterogéneo de la privacidad impulsado en gran medida por la ley estatal. Con respecto a las redes sociales, específicamente, los estados empezaron a introducir leyes en 2012 para impedir que los empleadores solicitaran contraseñas a cuentas personales de Internet como condición de empleo. Más de veinte estados han promulgado este tipo de leyes que se aplican a los empleadores. Sin embargo, en términos de privacidad general en el uso de las nuevas tecnologías en el lugar de trabajo, ha habido directrices o medidas menos específicas. En particular, se ha aprobado la legislación en California eso podría limitar el uso por parte de los empleadores de los datos de los candidatos o empleados. En general, los tribunales estatales y federales aún no han adoptado un marco unificado para analizar la privacidad de los empleados en relación con las nuevas tecnologías. La conclusión es que, al menos por ahora, la privacidad de los empleados en la era del big data sigue siendo inestable. Esto pone a los empleadores en una posición conflictiva que exige cautela: hay tecnología de vanguardia disponible que puede ser extremadamente útil. Pero le da información que antes se consideraba privada. ¿Es legal usarlo en un contexto de contratación? ¿Y es ético tener en cuenta si el candidato no dio su consentimiento?
3) ¿A qué tentaciones se enfrentarán las empresas en términos de privacidad de los candidatos en relación con las discapacidades?
La Ley de estadounidenses con discapacidades sitúa las discapacidades mentales directamente en su ámbito de competencia, junto con las discapacidades físicas, y define a una persona como discapacitada si la discapacidad limita sustancialmente una actividad importante de la vida, si la persona tiene un historial de dicha discapacidad o si se percibe que la persona tiene esa discapacidad. Hace aproximadamente una década, la Comisión de Igualdad de Oportunidades en el Empleo (EEOC) de los Estados Unidos publicó una guía que decía que la lista cada vez mayor de trastornos de la personalidad descritos en la literatura psiquiátrica podía calificarse como discapacidad mental, y la Ley de Enmiendas de la ADA facilitó que una persona demostrara que tiene una discapacidad en el sentido de la ADA. Como resultado, la categoría de personas protegidas por la ADA ahora puede incluir a las personas que tienen problemas importantes de comunicación en situaciones sociales, a las personas que tienen problemas para concentrarse o a las personas que tienen dificultades para interactuar con los demás.
Además de plantear nuevas preguntas sobre las discapacidades, la tecnología también presenta nuevos dilemas con respecto a las diferencias, ya sean demográficas o de otro tipo. Ya ha habido situaciones importantes en la vida real en las que estos sistemas han revelado sesgos de aprendizaje, especialmente relacionados con la raza y el género. Amazon, por ejemplo, desarrolló un programa automático de búsqueda de talentos para revisar los currículums, que se abandonó cuando la empresa se dio cuenta de que el programa no calificaba a los candidatos de una manera neutral en cuanto al género. Para reducir esos sesgos, los desarrolladores están equilibrando los datos utilizados para entrenar los modelos de IA para representar adecuadamente a todos los grupos. Cuanta más información tenga la tecnología y de la que pueda explicar o aprender, mejor podrá controlar los posibles sesgos.
En conclusión, las nuevas tecnologías ya pueden cruzar la línea entre los atributos, «rasgos» y «estados» públicos y privados de nuevas maneras, y hay motivos de sobra para creer que en el futuro serán cada vez más capaces de hacerlo. Con la IA, los macrodatos, las redes sociales y el aprendizaje automático, los empleadores tendrán un acceso cada vez mayor a la vida privada, los atributos privados y los desafíos y estados mentales privados de los candidatos. No hay respuestas fáciles a muchas de las nuevas preguntas sobre la privacidad que hemos planteado aquí, pero creemos que todas merecen un debate y un debate públicos.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.