Cómo incorporar la responsabilidad a su IA
por Stephen Sanford

En lo que respecta a la gestión de la inteligencia artificial, no faltan principios y conceptos destinados a apoyar el uso justo y responsable. Pero las organizaciones y sus líderes suelen quedarse rascándose la cabeza cuando se enfrentan a preguntas difíciles sobre cómo gestionar e implementar los sistemas de IA de forma responsable en la actualidad.
Por eso, en la Oficina de Responsabilidad del Gobierno de los Estados Unidos, hemos desarrollado recientemente la primera marco para ayudar a garantizar la rendición de cuentas y el uso responsable de los sistemas de IA. El marco define las condiciones básicas de la responsabilidad a lo largo de todo el ciclo de vida de la IA, desde el diseño y el desarrollo hasta el despliegue y la supervisión. También establece las preguntas específicas que se deben hacer y los procedimientos de auditoría que se deben utilizar al evaluar los sistemas de IA en las cuatro dimensiones siguientes: 1) la gobernanza, 2) los datos, 3) el rendimiento y 4) la supervisión.
Nuestro objetivo al realizar este trabajo ha sido ayudar a las organizaciones y los líderes a pasar de las teorías y los principios a prácticas que puedan utilizarse realmente para gestionar y evaluar la IA en el mundo real.
Comprenda todo el ciclo de vida de la IA
Con demasiada frecuencia, se hacen preguntas de supervisión sobre un sistema de IA después está construido y ya desplegado. Pero eso no basta: las evaluaciones de un sistema de IA o aprendizaje automático deberían realizarse en cada punto de su ciclo de vida. Esto ayudará a identificar los problemas de todo el sistema que pueden pasarse por alto durante las evaluaciones «puntuales» definidas de forma restringida.
Basándose en trabajar realizado por la Organización de Cooperación y Desarrollo Económicos (OCDE) y otros, hemos observado que las etapas importantes del ciclo de vida de un sistema de IA incluyen:
Diseño: articular los objetivos y metas del sistema, incluidas las suposiciones subyacentes y los requisitos generales de rendimiento.
Desarrollo: definir los requisitos técnicos, recopilar y procesar datos, crear el modelo y validar el sistema.
Despliegue: pilotar, comprobar la compatibilidad con otros sistemas, garantizar el cumplimiento de la normativa y evaluar la experiencia del usuario.
Supervisión: evaluar continuamente los resultados e impactos del sistema (tanto intencionados como no), refinar el modelo y tomar decisiones para ampliar o retirar el sistema.
Esta visión de la IA es similar al enfoque del ciclo de vida utilizado en el desarrollo de software. Como hemos indicado en otra parte trabajar en un desarrollo ágil, las organizaciones deberían establecer actividades de ciclo de vida adecuadas que integren la planificación, el diseño, la construcción y las pruebas para medir continuamente el progreso, reducir los riesgos y responder a los comentarios de las partes interesadas.
Incluya a toda la comunidad de partes interesadas
En todas las etapas del ciclo de vida de la IA, es importante reunir al grupo adecuado de partes interesadas. Se necesitan algunos expertos para que aporten información sobre el rendimiento técnico de un sistema. Estas partes interesadas técnicas pueden incluir científicos de datos, desarrolladores de software, especialistas en ciberseguridad e ingenieros.
Sin embargo, toda la comunidad de partes interesadas va más allá de los expertos técnicos. También se necesitan partes interesadas que puedan hablar sobre el impacto social de la implementación de un sistema de IA en particular. Estas partes interesadas adicionales incluyen expertos en políticas y legales, expertos en la materia, usuarios del sistema y, lo que es más importante, personas afectadas por el sistema de IA.
Todas las partes interesadas desempeñan un papel esencial a la hora de garantizar que se identifiquen, evalúen y mitiguen las preocupaciones éticas, legales, económicas o sociales relacionadas con el sistema de IA. Las aportaciones de una amplia gama de partes interesadas, tanto técnicas como no técnicas, son un paso clave para ayudar a protegerse contra las consecuencias no deseadas o los sesgos en un sistema de IA.
Cuatro dimensiones de la responsabilidad de la IA
A medida que las organizaciones, los líderes y los evaluadores externos se centran en la responsabilidad durante todo el ciclo de vida de los sistemas de IA, hay cuatro dimensiones a tener en cuenta: la gobernanza, los datos, el rendimiento y la supervisión. Dentro de cada área, hay medidas importantes que tomar y cosas que buscar.
Evalúe las estructuras de gobierno. Un ecosistema saludable para la gestión de la IA debe incluir los procesos y estructuras de gobierno. Una gobernanza adecuada de la IA puede ayudar a gestionar el riesgo, demostrar valores éticos y garantizar el cumplimiento. La responsabilidad por la IA significa buscar pruebas sólidas de la gobernanza a nivel organizacional, incluidas metas y objetivos claros para el sistema de IA; funciones, responsabilidades y líneas de autoridad bien definidas; una fuerza laboral multidisciplinaria capaz de gestionar los sistemas de IA; un amplio conjunto de partes interesadas y procesos de gestión de riesgos. Además, es vital buscar elementos de gobierno a nivel del sistema, como las especificaciones técnicas documentadas del sistema de IA en particular, el cumplimiento y el acceso de las partes interesadas a la información sobre el diseño y el funcionamiento del sistema.
Comprenda los datos. La mayoría de nosotros ya sabemos que los datos son el elemento vital de muchos sistemas de IA y aprendizaje automático. Pero los mismos datos que dan a los sistemas de IA su potencia también pueden ser una vulnerabilidad. Es importante tener documentación sobre cómo se utilizan los datos en dos etapas diferentes del sistema: cuando se utilizan para crear el modelo subyacente y mientras el sistema de IA está en funcionamiento real. Una buena supervisión de la IA incluye tener documentación de las fuentes y el origen de los datos utilizados para desarrollar los modelos de IA. También hay que prestar atención a las cuestiones técnicas relacionadas con la selección de variables y el uso de datos alterados. Es necesario examinar la fiabilidad y la representatividad de los datos, incluida la posibilidad de sesgo, inequidad u otros problemas sociales. La responsabilidad también incluye la evaluación de la seguridad y la privacidad de los datos de un sistema de IA.
Defina los objetivos y las métricas de rendimiento. Una vez desarrollado e implementado un sistema de IA, es importante no perder de vista las preguntas: «¿Por qué creamos este sistema en primer lugar?» y «¿Cómo sabemos que funciona?» Para responder a estas importantes preguntas se necesita una documentación sólida sobre el propósito declarado de un sistema de IA, junto con definiciones de las métricas de rendimiento y los métodos utilizados para evaluar ese rendimiento. La dirección y quienes evalúan estos sistemas deben poder garantizar que una aplicación de IA cumpla los objetivos previstos. Es crucial que estas evaluaciones del rendimiento se realicen a nivel general del sistema, pero que también se centren en los componentes individuales que respaldan e interactúan con el sistema en general.
Revise los planes de monitoreo. La IA no debe considerarse un sistema de «configúrelo y olvídese». Es cierto que muchos de los beneficios de la IA se deben a la automatización de ciertas tareas, a menudo a una escala y una velocidad que superan la capacidad humana. Al mismo tiempo, la supervisión continua del rendimiento por parte de las personas es esencial. Esto incluye establecer un rango de desviación del modelo que sea aceptable y una supervisión continua para garantizar que el sistema produce los resultados esperados. La supervisión a largo plazo también debe incluir una evaluación de si el entorno operativo ha cambiado y en qué medida las condiciones permiten ampliar o ampliar el sistema a otros entornos operativos. Otras preguntas importantes que hay que hacerse son si el sistema de IA sigue siendo necesario para alcanzar los objetivos previstos y qué métricas se necesitan para determinar cuándo retirar un sistema determinado.
Piense como un auditor
Hemos basado nuestro marco en las normas gubernamentales actuales de auditoría y control interno. Esto permite utilizar sus prácticas y preguntas de auditoría en los recursos de rendición de cuentas y supervisión existentes a los que las organizaciones ya tienen acceso. El marco también está escrito en un lenguaje sencillo para que los usuarios sin conocimientos técnicos puedan aplicar sus principios y prácticas al interactuar con los equipos técnicos. Si bien nuestro trabajo se ha centrado en la rendición de cuentas por el uso de la IA por parte del gobierno, el enfoque y el marco se adaptan fácilmente a otros sectores.
El marco completo describe las preguntas y los procedimientos de auditoría específicos que cubren las cuatro dimensiones descritas anteriormente (gobierno, datos, rendimiento y supervisión). Los ejecutivos, los gestores de riesgos y los profesionales de la auditoría (prácticamente cualquier persona que trabaje para impulsar la rendición de cuentas de los sistemas de IA de una organización) pueden utilizar este marco de inmediato, ya que define las prácticas de auditoría y proporciona preguntas concretas que hacer al evaluar los sistemas de IA.
Cuando se trata de fomentar la responsabilidad de la IA, nunca está de más pensar como un auditor.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.