Cómo las empresas pueden adoptar un enfoque global de la ética de la IA
por Swanand Deodhar, Favour Borokini, Ben Waber

Hacer bien la política ética de la IA es un asunto de mucho en juego para una organización. Instancias bien publicadas de sesgos de género en los algoritmos de contratación o resultados de búsqueda de empleo puede disminuir la reputación de la empresa, enfrentar a la empresa contra reglamento, y incluso atraer cuantiosas multas del gobierno. Al detectar estas amenazas, las organizaciones crean cada vez más estructuras y procesos dedicados a inculcar la ética de la IA de forma proactiva. Algunas empresas han seguido adelante en este camino, creando marcos institucionales para la ética de la IA.
Sin embargo, muchos esfuerzos pasan por alto un hecho importante: la ética difiere de un contexto cultural a otro. En primer lugar, las ideas sobre el bien y el mal en una cultura pueden no traducirse a un contexto fundamentalmente diferente. En segundo lugar, incluso cuando hay una alineación entre el bien y el mal, es muy posible que haya diferencias importantes en el razonamiento ético en juego (normas culturales, tradiciones religiosas, etc.) que hay que tener en cuenta. Por último, la normativa sobre IA y datos relacionados rara vez es uniforme en todas las geografías, lo que puede introducir heterogeneidad en los aspectos de cumplimiento de la ética de la IA. No tener en cuenta estos factores puede tener un impacto empresarial real en las empresas, así como en sus clientes.
En este momento, los nuevos estándares mundiales en torno a la ética de la IA se basan en gran medida en torno a una perspectiva occidental. Por ejemplo, el Inventario Global de Pautas Éticas de la IA (AEGGA), una base de datos centralizada de informes, marcos y recomendaciones, recopiló 173 directrices antes de abril de 2024 y señaló que «la inmensa mayoría [procedían] de Europa y EE. UU.» — no tan global como cabe imaginar. Sin embargo, muchas empresas simplemente adoptan estas normas y las aplican en todo el mundo.
Las perspectivas occidentales también se codifican implícitamente en los modelos de IA. Por ejemplo, algunas estimaciones muestran que menos del 3% de todas las imágenes de ImageNet representan a la diáspora india y china, que en conjunto representan un tercio de la población mundial. En términos generales, la falta de datos de alta calidad probablemente conduzca a un bajo poder predictivo y a un sesgo contra los grupos subrepresentados, o incluso imposibilite el desarrollo de herramientas para ciertas comunidades. Los LLM no se pueden capacitar actualmente para idiomas que no estén muy representados en Internet, por ejemplo. Una encuesta reciente a organizaciones de TI en la India reveló que la falta de datos de alta calidad sigue siendo la más el principal impedimento para las prácticas éticas de IA.
A medida que la IA gana terreno y dicta las operaciones empresariales, una falta descontrolada de variedad en las consideraciones éticas puede perjudicar a las empresas y a sus clientes.
Para abordar este problema, las empresas necesitan desarrollar un modelo ético de IA global y contextual que priorice la colaboración con los equipos y las partes interesadas locales y devuelva la autoridad de toma de decisiones a esos equipos locales. Esto es especialmente necesario si sus operaciones abarcan varios lugares geográficos.
Añadir contexto a la ética de la IA
Muchas empresas están en una posición sólida para crear un proceso de IA global y contextual desde cero. Esto se debe principalmente a que aún no lo tienen, no hay nada que desmantelar o modificar, no hay protocolos sobre los que haya que volver a capacitar a las personas. Podría decirse que esta es una posición mejor que la de las empresas que ya han lanzado una política ética de IA única y monolítica. Las organizaciones que están definiendo sus políticas están realmente bien preparadas para hacerlo bien.
Basándonos en nuestro trabajo, así como en entrevistas con las partes interesadas pertinentes que representan a los usuarios y desarrolladores de IA de diferentes geografías, desarrollar e implementar una política ética de la IA contextual para la organización requiere tres pasos.
En primer lugar, las empresas tienen que ponerse de acuerdo sobre los principios impulsores que deben aplicarse en todas las geografías. En la mayoría de los casos que analizamos, el equipo global fue el responsable de esta iniciativa: trabajaron con equipos de diferentes partes del mundo para desarrollar, debatir y perfeccionar estos principios rectores.
En segundo lugar, hay que crear los equipos pertinentes en las diferentes regiones de la organización. Una presencia significativa en una ubicación geográfica —o un plan para expandirse allí pronto— justifica un equipo multifuncional. (La forma exacta en que se debe constituir este equipo es un tema para un artículo diferente.) Estos equipos serán responsables de poner en práctica el marco ético de la IA del equipo global y se les debería recompensar en consecuencia; de lo contrario, las organizaciones corren el riesgo de acumular más responsabilidades en grupos ya marginados. En algunos casos, es posible que las organizaciones tengan que trabajar fuera, especialmente en las regiones en las que la organización aún tiene poca experiencia.
En tercer lugar, el equipo directivo mundial tiene que involucrar a los equipos regionales de ética de la IA en una serie de conversaciones durante el desarrollo inicial. Los comentarios de estos equipos tienen que incorporarse a la estrategia de IA de la empresa y, a continuación, pasarlos a los equipos locales, que tienen la capacidad de adaptarlos a su contexto. Estas adaptaciones tienen que comunicarse con los líderes mundiales y refinarse en función de los comentarios.
Para ver un ejemplo de cómo funciona esto, piense en Hewlett Packard Enterprise (HPE). En HPE, el director de cumplimiento se asoció con su laboratorio de investigación de IA para elaborar los principios globales de la IA, con representantes de todas las divisiones de funciones y productos. Con la diversidad geográfica integrada en el equipo, las consideraciones éticas consideradas tenían más probabilidades de ser representativas de los lugares en los que opera la empresa. El equipo de cumplimiento de HPE, por ejemplo, creó una matriz mundial de principios y reglamentos y marcos gubernamentales específicos desde el punto de vista geográfico, garantizando que los principios globales de HPE se filtraran desde una perspectiva local.
Interacción continua al contextualizar la ética de la IA
Como punto de partida, hay que tener en cuenta la posibilidad de que la alta dirección no conozca lo suficiente el contexto local y, por lo tanto, pueda ver una desviación de la directiva ética mundial de la IA como un error. Por ejemplo, un equipo ético global de IA que esté examinando un algoritmo salarial de los empleados podría exigir que la licencia de los empleados no se tenga en cuenta en las decisiones de ascenso. La motivación aquí es animar a hombres y mujeres a tomarse la licencia parental o por enfermedad si es necesario sin preocuparse por el impacto en sus carreras. Sin embargo, en países como Japón es probable que esa política se modifique en gran medida. Una obra innovadora de Hilary Holbrow demostró que en las empresas japonesas, los empleados perciben políticas como esta como profundamente injustas. Desde el punto de vista cultural, no sería apropiado implementar una política de esta manera sin dedicar importantes recursos a conseguir la aceptación de este enfoque.
Este caso demuestra que, si bien se reconoce como un cambio de política favorable en grandes partes del mundo, los objetivos basados en la igualdad que se utilizan en los algoritmos de la IA pueden no suscitar la misma respuesta positiva. Hay algunos casos en los que las partes interesadas locales están creando recursos de datos para que las organizaciones puedan percibir el contexto con mayor precisión. Las comunidades de las Primeras Naciones canadienses, por ejemplo, tienen un marco y programa de formación establecidos en relación con la recopilación y el uso de datos que son esenciales para cualquier organización que quiera operar en esta área.
Más allá de mejorar el conocimiento del contexto local, la participación continua también puede ayudar a los líderes mundiales a lograr un delicado equilibrio entre aplazar a los equipos locales en algunos casos y anularlos en otros. HPE abordó este problema creando procesos automatizados. Al iniciar una nueva iniciativa o proceso de licitación que involucre a la IA, su software de cumplimiento programa automáticamente una reunión entre el personal del equipo y los miembros del grupo local de gobierno de la IA. El equipo local proporciona el contexto para la conversación, mientras que el equipo global proporciona más experiencia de alto nivel sobre los principios y el marco de gobierno de la IA de HPE. Con el tiempo, esto ha creado una «jurisprudencia» en HPE sobre cómo abordar las diferentes cuestiones éticas de la IA.
HPE se enfrentaba al desafío del desconocimiento inherente de las excepciones y las cuestiones locales que se desconocen a nivel mundial. En lugar de intentar crear una política ética de la IA que enumerara exhaustivamente los diferentes escenarios, lo que de forma inherente omitiría algo, HPE creó un marco y un proceso generales que permiten responder a preguntas específicas y crear un historial a lo largo del tiempo. Esto también tiene la ventaja de hacer frente a un mundo intrínsecamente dinámico, incluso si algo es ético hoy en día, puede cambiar en el futuro. Tener un proceso en el que se rastreen y cambien las decisiones éticas explica este dinamismo inherente.
Lamentablemente, no existe una regla estricta sobre cómo crear estos procesos. Incluso en el ejemplo anterior, puede ser que las acciones sean un valor tan fundamental para la empresa que los líderes consideren necesario anular las objeciones locales. En general, esto debería ser poco frecuente, suponiendo que los líderes mundiales comuniquen claramente sus objetivos y su estrategia, y todas estas decisiones se revisen al menos una vez al año. Este enfoque de revisión periódica es esencial para la gobernanza de la IA: las tecnologías cambian, el contexto local cambia, se recopilan datos sobre la eficacia de la gobernanza y la estrategia empresarial cambia. Estas conversaciones periódicas son esenciales para la sostenibilidad de este esfuerzo.
La importancia de tener una visión ética de la IA
Más allá del proceso de operacionalización de la ética de la IA, de nuestras entrevistas surgió otra consideración importante: falta de visión. Un encuestado del equipo de ética de la IA de una importante asociación de empresas de tecnología de la India afirmó que la mayoría de las organizaciones adoptaban una visión ética basada en el cumplimiento. Por lo tanto, es probable que las organizaciones adopten políticas éticas de la IA siempre que sus clientes, que tienen su sede principalmente en Occidente, exijan lo mismo, o cuando lo exijan los reguladores locales.
Una conclusión un tanto relacionada surgió de un panel reciente de El MIT y el Boston Consulting Group en el que los participantes estuvieron de acuerdo en que actualmente se centran en los beneficios económicos de la IA. Estos casos indican que la fiebre del oro, provocada por la IA, ha relegado las consideraciones éticas operativas a una prioridad inferior o la ha reducido a una cuestión puramente de cumplimiento. Estos enfoques tan limitados no solo van en contra de la posición declarada públicamente de las organizaciones, sino que también pueden reducir la formulación de las políticas éticas de la IA a una mera «marca de verificación», lo que reduce aún más la posibilidad de que las organizaciones hagan hincapié en la contextualización de dichas políticas.
En un principio, HPE tenía previsto desarrollar sus principios éticos de la IA en un período de 6 semanas. Esta tarea implicó más de un año de ejercicio para desarrollar un marco que fuera auténtico para HPE y creara procesos que permitieran la adaptación local. Gran parte de este tiempo se dedicó a resolver cuestiones espinosas en torno a declaraciones aparentemente simples. «Obedecemos la ley» puede parecer trivial, por ejemplo, pero si se tiene en cuenta la declaración, se plantean innumerables preguntas. ¿Qué ley? ¿Cómo comparamos las leyes locales con los principios mundiales de derechos humanos? ¿Qué partes interesadas deben ser consultadas sobre estas decisiones? Las empresas que no estén preparadas para participar seriamente en estas conversaciones invertirán inevitablemente menos de lo suficiente en la iniciativa y, en cambio, crearán un marco ineficaz y casillas de verificación que dificultará el tiempo de comercialización, conducirá a productos de calidad inferior y, en última instancia, no mitigará los problemas de responsabilidad que preocupan a muchas empresas.
Hacer que la ética de la IA sea configurable a través de la tecnología
Por último, nuestras entrevistas revelaron una tendencia interesante y más positiva, a saber, que los productos tecnológicos ocupan rápidamente el espacio entre los modelos de IA desarrollados externamente y los usuarios internos de la organización. Al hacerlo, estos productos convierten una noción un tanto abstracta de la ética de la IA en parámetros configurables digitalmente. Por ejemplo, hablamos con el director de producto de un producto de seguridad de modelos lingüísticos extensos (LLM) cómo su producto clasifica el uso ético en cuatro grupos: religión, género, raza, y salud. El producto permite supervisar el rendimiento de un LLM desarrollado externamente en cada uno de estos grupos, que se clasifican con más detalle en términos más específicos a nivel prompt. Por lo tanto, la organización de usuarios puede configurar estos grupos para definir el uso éticamente aceptable de los LLM como parte de su política ética de la IA. Como tal, las interfaces configuracionales mejoran la eficacia y van más allá de los LLM, y pueden permitir a los equipos éticos locales de IA contextualizar más fácilmente los amplios marcos éticos formulados por la alta dirección.
El enfoque de HPE, aunque es posible que sea menos «vanguardista» desde el punto de vista tecnológico, emplea algoritmos y procesos automatizados para involucrar de forma proactiva a los desarrolladores y vendedores de primera línea a hacer preguntas éticas, determinar si su caso de uso ya está cubierto por la jurisprudencia existente y hacer un seguimiento de los resultados. Las empresas deberían emular este ejemplo y centrarse en utilizar la tecnología de manera que acentúe sus propios procesos éticos de la IA, en lugar de atascarse en las tecnologías con vagas promesas de una automatización plausible.
Conclusión
Del debate anterior, contextualizar la ética de la IA se perfila como un desafío importante. Aunque hay varias consideraciones que obligan a contextualizar la ética de la IA, la respuesta de las organizaciones de usuarios de la IA no ha sido nada uniforme. Si bien organizaciones como HPE han avanzado a la vanguardia y han formulado procesos y estructuras elaborados para contextualizar la ética de la IA, otras parecen estar teniendo dificultades con la cuestión fundamental de cómo crear prácticas para la ética de la IA, y algunas se limitan a adoptar la perspectiva reguladora. Sin embargo, a medida que la IA gane terreno rápidamente, las organizaciones se enfrentarán a la cuestión de cómo formular y aplicar políticas éticas de la IA sensibles al contexto.
Una respuesta a estas preguntas es formar equipos éticos locales de IA e interactuar continuamente con ellos. Con este fin, le ofrecemos tres recomendaciones. En primer lugar, una empresa debe comprometerse con los empleados locales para enmarcar su narrativa ética de la IA. El hecho de que HPE emprenda una revisión exhaustiva de los diferentes enfoques regionales de la ética y la gobernanza de la IA, junto con su interacción continua con los equipos locales, es un excelente ejemplo de ello. En segundo lugar, al principio del proceso, la empresa debería negociar en puntos de conflicto en los que los valores de la empresa están en desacuerdo con los valores que prevalecen en la geografía. Este punto es evidente en el ejemplo mencionado anteriormente de los valores culturales japoneses y en una intervención algorítmica que omite las licencias tomadas para tomar decisiones de promoción. Por último, si bien puede haber una visión de toda la empresa sobre el uso de la IA, las empresas pueden empoderar líderes locales con cierta autonomía en cuanto a la implementación de las iniciativas de IA por motivos éticos, incluidas las variaciones regulatorias en las normas éticas de la IA. Por supuesto, hasta qué punto se puede permitir esa autonomía es cuestión de seguir negociando.
A medida que las empresas adopten estas recomendaciones, es importante no ver la ética de la IA como una meta objetiva. Por el contrario, al igual que los componentes tecnológicos de la IA, la ética de la IA también es muy cambiante. Por lo tanto, las empresas nunca «terminan» con la ética y la gobernanza de la IA. Es un proceso continuo.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.