¿Qué implica realmente crear una IA justa?
por David De Cremer

Charles Taylor/EyeEm/Getty Images
La inteligencia artificial (IA) se está convirtiendo rápidamente en una parte integral de la gestión de las organizaciones. No debería sorprendernos; al analizar las llamadas de venta y las tendencias del mercado, por ejemplo, los juicios de los algoritmos computacionales pueden considerarse superiores a los de los humanos. Como resultado, las técnicas de IA se utilizan cada vez más para tomar decisiones. Las organizaciones utilizan algoritmos para asignar valiosos recursos, diseñar horarios de trabajo, analizar el desempeño de los empleados, e incluso decidir si los empleados pueden permanecer en el trabajo.
Esto crea una nueva serie de problemas, a la vez que resuelve los antiguos. A medida que aumenta el papel de la toma de decisiones algorítmica a la hora de calcular la distribución de los recursos limitados y a medida que los humanos dependen más y son más vulnerables a las decisiones de la IA, aumenta la ansiedad por la equidad. ¿Qué tan imparcial puede ser realmente un proceso automatizado de toma de decisiones con los humanos como destinatarios?
Para abordar este tema, los científicos e ingenieros informáticos se centran principalmente en cómo regular el uso de los datos proporcionados para ayudar al algoritmo a aprender (es decir, la minería de datos) y en utilizar los principios rectores y las técnicas que pueden promover IA interpretable: sistemas que nos permiten entender cómo surgieron los resultados. Ambos enfoques se basan, en su mayor parte, en el desarrollo de métodos computacionales que tengan en cuenta ciertas características que se cree que están relacionadas con la equidad.
En el centro del problema está el hecho de que los algoritmos calculan los modelos óptimos a partir de los datos que reciben, lo que significa que pueden acabar replicando los problemas que deben corregir. Un esfuerzo de 2014 para eliminar los prejuicios humanos en la contratación en Amazon, por ejemplo, calificó a los candidatos con sesgos de género; los datos históricos sobre el desempeño laboral que se le proporcionaron mostraron que la industria de la tecnología estaba dominada por hombres, por lo que consideró que contratar hombres era una buena apuesta. El programa Perfiles de la gestión de delincuentes correccionales para sanciones alternativas, un programa dirigido por la IA, ofrecía predicciones sesgadas sobre la reincidencia y pronosticaban erróneamente que los acusados negros (juzgados incorrectamente como de alto riesgo de reincidencia) reincidirían a un ritmo mucho mayor que los acusados blancos (marcados incorrectamente como de bajo riesgo).
Las organizaciones y los gobiernos han intentado establecer directrices para ayudar a los desarrolladores de IA a refinar los aspectos técnicos de modo que las decisiones algorítmicas sean más interpretables (lo que permitirá a los humanos entender con claridad cómo se toman las decisiones) y, por lo tanto, más justas. Por ejemplo, Microsoft ha lanzado programas que identifican principios de alto nivel como la equidad, la transparencia, la responsabilidad y la ética para guiar a los científicos e ingenieros de la computación en sus esfuerzos de codificación. Se están realizando esfuerzos similares a nivel gubernamental, como lo demuestra el Las directrices éticas de la Unión Europea para una IA fiable y El marco modelo de gobernanza de la IA de Singapur.
Pero ni los esfuerzos de los informáticos por tener en cuenta las características tecnológicas ni los esfuerzos de las empresas y los gobiernos por desarrollar directrices basadas en principios resuelven del todo el problema de la confianza. Para ello, los diseñadores tienen que tener en cuenta las necesidades de información y las expectativas de las personas que se enfrentan a los resultados de los modelos. Esto es importante desde el punto de vista ético y práctico: una gran cantidad de investigación en gestión programas que cuanto más justas se perciba que son las decisiones, más las aceptan los empleados, cooperan con los demás, están satisfechos con su trabajo y tienen un mejor desempeño. La equidad es muy importante para el funcionamiento de la organización, y no hay razón para pensar que eso vaya a cambiar cuando la IA pase a ser la que toma las decisiones.
Entonces, ¿cómo pueden las empresas que quieren implementar la IA persuadir a los usuarios de que no comprometen la equidad? En pocas palabras, tienen que dejar de pensar en la equidad —un concepto complicado— como algo que pueden abordar con los procesos automatizados adecuados y empezar a pensar en un enfoque interdisciplinario en el que la informática y las ciencias sociales trabajen juntas. La equidad es una construcción social que los humanos utilizan para coordinar sus interacciones y las consiguientes contribuciones al bien colectivo, y es subjetiva. Se debe evaluar a un responsable de la toma de decisiones de la IA en función de qué tan bien ayuda a las personas a conectarse y cooperar; la gente tendrá en cuenta no solo sus aspectos técnicos sino también las fuerzas sociales que operan en torno a ella. Un enfoque interdisciplinario permite identificar tres tipos de soluciones que normalmente no se discuten en el contexto de la IA como una toma de decisiones justa.
Solución 1: Tratar la equidad de la IA como un acto de cooperación.
Los algoritmos tienen como objetivo reducir las tasas de error en la medida de lo posible para encontrar la solución óptima. Pero si bien ese proceso puede moldearse según criterios formales de equidad, los algoritmos dejan el perceptivo la naturaleza de la equidad está fuera de la ecuación y no cubren aspectos como si las personas sienten que han sido tratadas con dignidad y respeto y que han sido atendidas, preocupaciones importantes en materia de justicia. De hecho, los algoritmos están diseñados en gran medida para crear modelos de predicción óptimos que tengan en cuenta las características técnicas para mejorar los criterios formales de equidad, como la interpretabilidad y la transparencia, a pesar de que esas funciones no cumplen necesariamente con las expectativas y necesidades del usuario final humano. Como resultado, y como muestra el ejemplo de Amazon, los algoritmos pueden predecir resultados que la sociedad percibe como injustos.
Hay una manera sencilla de abordar este problema: el modelo producido por la IA debe ser evaluado por un defensor del diablo humano. Aunque las personas son mucho menos racionales que las máquinas y, hasta cierto punto, están ciegas ante sus propias conductas inapropiadas, las investigaciones muestran que es menos probable que tengan prejuicios cuando evaluar el comportamiento y las decisiones de los demás. En vista de esta visión, la estrategia para lograr la equidad de la IA debe implicar un acto de cooperación entre la IA y los humanos. Ambas partes pueden poner sobre la mesa sus mejores habilidades para crear un modelo de predicción óptimo ajustado a las normas sociales.
Recomendación: Las organizaciones tienen que invertir de forma significativa en el desarrollo ético de sus directivos. Ser un defensor del diablo para los responsables de la toma de decisiones algorítmicas exige que los gerentes desarrollen su sentido común y su sentido intuitivo de lo que está bien y lo que está mal.
Solución 2: Considere la equidad de la IA como una negociación entre la empresa de servicios públicos y la humanidad.
El juicio algorítmico es demostró ser más preciso y predictivo que el juicio humano en una serie de tareas específicas, incluida la asignación de puestos y las recompensas en función de las evaluaciones del desempeño. Tiene sentido que, en la búsqueda de un negocio que funcione mejor, los algoritmos sean cada vez más preferido a los humanos para esas tareas. Desde un punto de vista estadístico, esa preferencia puede parecer válida. Sin embargo, gestionar el flujo de trabajo y la asignación de recursos de formas (casi) perfectamente racionales y coherentes no es necesariamente lo mismo que crear una empresa o una sociedad humana.
No importa cómo intente optimizar sus jornadas de trabajo, los humanos no trabajan de forma estable y predecible. Tenemos días buenos y malos, caídas vespertinas y ráfagas de productividad, todo lo cual representa un desafío para la organización automatizada del futuro. De hecho, si queremos utilizar la IA de manera que promuevan un entorno laboral humano, tenemos que aceptar la propuesta de que no debemos optimizar la búsqueda de la utilidad en detrimento de valores como la tolerancia ante el fracaso, que permite a las personas aprender y mejorar, habilidades de liderazgo que se consideran necesarias para que nuestras organizaciones y nuestra sociedad sean humanas. El modelo de predicción óptimo de equidad debe diseñarse con una mentalidad negociadora que se esfuerce por lograr un compromiso aceptable entre la utilidad y los valores humanos.
Recomendación: Los líderes deben tener claro los valores que la empresa quiere perseguir y las normas morales que les gustaría ver en vigor. Por lo tanto, deben tener claro cómo quieren hacer negocios y por qué. Responder a esas preguntas hará evidente el tipo de organización que les gustaría ver en acción.
Solución 3: Recuerde que la equidad de la IA implica la percepción de la responsabilidad.
La equidad es una preocupación importante en la mayoría (si no en todas) de nuestras interacciones profesionales y, por lo tanto, constituye una responsabilidad importante para los responsables de la toma de decisiones. Hasta ahora, las organizaciones y los gobiernos —debido a su adhesión a las estructuras matriciales— han abordado la cuestión de una toma de decisiones justa de la IA mediante la elaboración de listas de verificación de cualidades que guíen el desarrollo de los algoritmos. El objetivo es crear IA cuyos resultados coincidan con una definición determinada de lo que es justo.
Sin embargo, eso es solo la mitad de la ecuación: la equidad de la IA como responsable de la toma de decisiones depende realmente de las decisiones que tome la organización que la adopte, que es responsable de los resultados que generan sus algoritmos. La percepción de imparcialidad de la IA se juzgará a través de la lente de la organización que la emplea, no solo por las cualidades técnicas de los algoritmos.
Recomendación: Los científicos de datos de una organización deben conocer y estar de acuerdo con los valores y normas morales que los líderes han establecido. En la mayoría de las organizaciones, existe una brecha entre lo que crean los científicos de datos y los valores y los resultados empresariales que los líderes de la organización quieren lograr. Los dos grupos tienen que trabajar juntos para entender qué valores no se pueden sacrificar en el uso de los algoritmos. Por ejemplo, si la inclusión de los grupos minoritarios, que suelen estar mal representados en los datos disponibles, es importante para la empresa, entonces hay que desarrollar algoritmos que incluyan ese valor como un filtro importante y garanticen que se aprenda de los valores atípicos, no solo de los puntos en común.
***
Las organizaciones deben reconocer que sus partes interesadas las percibirán, no los algoritmos que utilizan, como responsables de cualquier resultado injusto que pueda surgir. Lo que contribuya a la equidad de la IA dependerá también de la forma en que las partes interesadas perciban que es la empresa en general. Investigar ha mostrado que las percepciones de equidad, además de la equidad distributiva que los algoritmos han dominado hasta cierto punto, pueden implicar la equidad con la que la organización trata a sus empleados y clientes, si se comunica de manera transparente y si se considera respetuosa con la comunidad en general. Se recomienda a las organizaciones que adopten la IA para participar en la toma de decisiones que dediquen el tiempo y la energía necesarios a crear la cultura laboral adecuada: una con una imagen organizacional justa y fiable.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.