Cómo trabaja IBM para lograr una IA más justa
por Francesca Rossi

Paper Boat Creative/Getty Images
Los humanos tienen muchos tipos de sesgos. Por nombrar solo algunos, padecemos de sesgo de confirmación, lo que significa que solemos centrarnos en la información que confirma nuestras ideas preconcebidas sobre un tema; desde sesgo de anclaje, donde tomamos decisiones basándonos principalmente en la primera información que recibimos sobre ese tema; y de sesgo de género, donde solemos asociar a las mujeres con ciertos rasgos, actividades o profesiones y a los hombres con otros. Cuando tomamos decisiones, este tipo de sesgos suelen entrar inconscientemente y se traducen en decisiones que, en última instancia, son injustas y poco objetivas.
Estos mismos tipos de el sesgo puede aparecer en la inteligencia artificial (IA), especialmente cuando se utilizan técnicas de aprendizaje automático para programar un sistema de IA. Una técnica de uso común llamada «aprendizaje automático supervisado» requiere que los sistemas de IA se entrenen con un gran número de ejemplos de problemas y soluciones. Por ejemplo, si queremos crear un sistema de IA que pueda decidir cuándo aceptar o rechazar una solicitud de préstamo, lo entrenaríamos con muchos ejemplos de solicitudes de préstamo y, para cada solicitud, le daríamos la decisión correcta (aceptar o rechazar la solicitud).
El sistema de IA encontraría correlaciones útiles en estos ejemplos y las utilizaría para tomar decisiones (esperemos que sean correctas) sobre las nuevas solicitudes de préstamos. Tras la fase de formación, una fase de prueba con otro conjunto de ejemplos comprueba que el sistema es lo suficientemente preciso y está listo para su despliegue. Sin embargo, si el conjunto de datos de entrenamiento no es lo suficientemente equilibrado, inclusivo o representativo de las dimensiones del problema que queremos resolver, el sistema de IA podría quedar sesgado. Por ejemplo, si todas las solicitudes de préstamo aceptadas en el conjunto de datos de formación están relacionadas con hombres y todas las rechazadas están relacionadas con mujeres, el sistema recogerá la correlación entre el género y la aceptabilidad como una forma de sesgo y utilizará este sesgo al tomar decisiones sobre las nuevas solicitudes en el futuro.
Centro Insight
La IA y la igualdad
Patrocinado por SAS
Diseñar sistemas que sean justos para todos.
Otro ejemplo de cómo el sesgo entra en los conjuntos de datos de entrenamiento de la IA se produce cuando incluimos muchos más puntos de datos para un grupo en comparación con otro. En este caso, la precisión del sistema de IA probablemente sea diferente para los dos grupos, ya que la IA podría aprender mejor (aprovechando más información) en uno de los dos grupos. En ámbitos con decisiones de alto riesgo, como en el sector financiero, la sanidad o el ámbito judicial, el uso de un sistema de IA con sesgos puede llevar a tomar decisiones que favorezcan a un grupo de personas en lugar de a otro. Esto no es aceptable, especialmente cuando las decisiones pueden afectar significativamente a las vidas.
Actualmente, hay algoritmos que pueden detectar y mitigar los sesgos en los sistemas de IA. Sin embargo, el espacio de sesgos de la IA es increíblemente complejo y los diferentes tipos de datos (imágenes, texto, voz, datos estructurados) requieren diferentes técnicas para detectar los sesgos en el conjunto de datos de entrenamiento. El sesgo también se puede inyectar en otras fases del proceso de desarrollo de la IA, no solo en el conjunto de datos de entrenamiento. Por ejemplo, piense en un sistema de IA que debe identificar el motivo principal de una solicitud de préstamo (como la compra de una casa, el pago de las tasas escolares y el pago de los honorarios legales) con el objetivo de priorizar algunas de esas categorías por encima de otras, según lo determinen los desarrolladores. Si los desarrolladores omiten uno de los motivos por los que las personas solicitan un préstamo, se penalizará a las personas con esa motivación.
Entonces, ¿qué podemos hacer para solucionar este creciente desafío? Esto es lo que hemos hecho en IBM para promover una IA más justa, transparente y precisa:
- Cree un consejo de ética de la IA eficaz. En IBM, siempre hemos priorizado las consideraciones éticas de las tecnologías que traemos al mundo. Creemos que para lograr cambios verdaderos y duraderos en este tema crítico, nosotros y otros debemos apoyar un cambio organizacional y cultural holístico. Por ejemplo, IBM ha creado un marco de gobierno de la IA centralizado y multidimensional, centrado en Consejo de ética interno de IA de IBM, que codirijo junto con el director de privacidad de IBM. Apoya las iniciativas técnicas y no técnicas para poner en práctica los principios de confianza y transparencia de IBM. También promovemos nuestros esfuerzos internos bajo el paraguas de IA de confianza que busca abordar múltiples dimensiones de este concepto, incluidas la imparcialidad, la explicabilidad, la solidez, la privacidad y la transparencia.
- Defina claramente las políticas empresariales en torno a la IA. En 2018, IBM publicó su Principios de confianza y transparencia para guiar los enfoques políticos de la IA de manera que promuevan la responsabilidad, incluida nuestra opinión sobre Regulación de precisión de la IA, publicado a principios de 2020. Estos principios describen nuestro compromiso con el uso de la IA para aumentar la inteligencia humana, nuestro compromiso con una política de datos que proteja los datos de los clientes y la información recopilada de sus datos y el compromiso de centrarnos en la transparencia y la explicabilidad para crear un sistema de confianza en la IA. Nuestra política de regulación de precisión recomienda que los responsables políticos solo regulen las aplicaciones de IA de alto riesgo, tras un análisis cuidadoso de la tecnología utilizada y su impacto en las personas.
- Trabaje con socios de confianza. También hemos establecido varias relaciones con múltiples partes interesadas con socios externos a lo largo de los años para promover la ética en la IA, incluso a principios de este año, cuando IBM se convirtió en uno de los primeros firmantes de el «Llamamiento de Roma» del Vaticano a favor de la ética de la IA.» Publicada en febrero de 2020, esta iniciativa en colaboración con el Vaticano se centra en promover una IA más centrada en las personas y que se alinee con los valores humanos fundamentales, por ejemplo, centrar más la atención en las partes vulnerables de la población. Otra iniciativa reciente a la que se unió IBM es la Grupo de expertos de alto nivel de la Comisión Europea (CE) sobre IA, diseñado para ofrecer directrices éticas para una IA fiable en Europa. Ahora se utilizan ampliamente en Europa y otros países para guiar las posibles normas y estándares futuros de la IA.
- Contribuya con kits de herramientas de código abierto a los pilares de la confianza en la IA. Más allá de definir los principios, las políticas, el gobierno y la colaboración, en IBM también priorizamos la investigación y el lanzamiento de herramientas tangibles que puedan aumentar la confianza en la IA. En 2018, IBM Research publicó un kit de herramientas de código abierto llamado IA Fairness 360 (AIF360) que permite a los desarrolladores compartir y recibir códigos y conjuntos de datos de última generación relacionados con la detección y la mitigación de los sesgos de la IA. Este kit de herramientas también permite a la comunidad de desarrolladores colaborar entre sí y analizar varios conceptos de sesgo, de modo que puedan entender de forma colectiva las mejores prácticas para detectar y mitigar el sesgo de la IA. Desde AIF360, IBM Research ha publicado herramientas adicionales diseñadas para definir, medir y fomentar la confianza en la IA, entre las que se incluyen Explicabilidad de la IA 360 (AIX360), que apoya la comprensión y la innovación en la explicabilidad de la IA, el Caja de herramientas de robustez adversarial, que proporciona herramientas útiles para hacer que la IA sea más sólida, y Hojas informativas sobre IA, que se centran en aumentar los niveles de transparencia en el desarrollo integral del ciclo de vida de la IA.
Estos esfuerzos, nacidos en IBM Research, también han dado lugar a soluciones empresariales innovadoras para los clientes de IBM. En 2018, IBM lanzó Watson OpenScale, una oferta comercial diseñada para crear soluciones basadas en la IA para las empresas y ayudarlas a detectar, gestionar y mitigar los sesgos de la IA.
Si bien soluciones como estas ayudan, por sí solas no son suficientes para garantizar que los sistemas de IA desplegados no tengan integrados sesgos no deseados. A menudo, los desarrolladores ni siquiera son conscientes del tipo de sesgo que tienen sus modelos y puede que no tengan los conocimientos necesarios para identificar lo que es justo y apropiado para un escenario determinado.
Para abordar este problema, hay varias iniciativas en las que las empresas pueden y deben centrarse:
- Dedicar recursos a iniciativas de educación y sensibilización para diseñadores, desarrolladores y gerentes;
- Garantizar composición diversa del equipo;
- Asegúrese de incluir consultas con las organizaciones sociales pertinentes y las comunidades afectadas para identificar la definición de equidad más adecuada para los escenarios en los que se implementará el sistema de IA, así como la mejor manera de resolver los problemas de interseccionalidad: varias nociones de sesgo (como el género, la edad y los prejuicios raciales) que afectan a las partes superpuestas de la población, donde mitigar uno puede aumentar el otro;
- Defina la metodología, la adopción y los marcos de gobierno para ayudar a los desarrolladores a revisar correctamente su cartera de IA de forma sostenible. Es necesario añadir nuevas medidas (por ejemplo, para detectar y mitigar los sesgos) a los procesos habituales de desarrollo de la IA; es necesario definir una metodología clara para integrar esas medidas y hay que hacer todo lo posible para que la adopción de esa metodología sea lo más fácil posible. También es necesario utilizar un marco de gobierno para evaluar, facilitar, hacer cumplir y ampliar la adopción; y
- Cree herramientas de transparencia y explicabilidad para reconocer la presencia de sesgos y su impacto en las decisiones del sistema de IA.
En general, solo un enfoque multidimensional y con múltiples partes interesadas puede abordar realmente el sesgo de la IA mediante la definición de un enfoque basado en valores, en el que valores como la equidad, la transparencia y la confianza sean el centro de la creación y la toma de decisiones en torno a la IA. De este modo, no solo podemos evitar crear una IA que replique o amplifique nuestros propios sesgos, sino que también podemos utilizarla para ayudar a los propios humanos a ser más justos. El objetivo final, por supuesto, no es promover la IA per se, sino promover a los seres humanos y nuestros valores mediante el uso de tecnologías, incluida la IA.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.