Los marcos éticos para la IA no son suficientes
por Andrew Burt

Bienestar medioambiental. Agencia humana. Transparencia. Estos son solo algunos de los principios mal definidos que suelen figurar en los marcos éticos de la inteligencia artificial (IA), cientos de los que ya han publicado organizaciones que van desde Google hasta el Gobierno de Canadá y BMW. A medida que las organizaciones adoptan la IA a una velocidad cada vez mayor, la adopción de estos principios es vista en general como una de las mejores formas de garantizar que la IA no cause daños no deseados.
¿El problema? Muchos marcos éticos de la IA no pueden implementarse claramente en la práctica, como lo han hecho siempre los investigadores demostrado. Sin un aumento drástico de la especificidad de los marcos de IA existentes, simplemente no hay mucho que el personal técnico pueda hacer para mantener claramente unas directrices de tan alto nivel. Y esto, a su vez, significa que, si bien los marcos éticos de la IA pueden ser buenas campañas de marketing, con demasiada frecuencia no logran impedir que la IA cause los mismos daños que pretende evitar.
En ese sentido, las normas éticas pueden suponer graves riesgos para las empresas que las adoptan, ya que crean la falsa sensación de que las organizaciones han hecho que su IA esté libre de riesgos cuando, de hecho, sus peligros son generalizados. Si las organizaciones piensan que el hecho de redactar los principios éticos de la IA es suficiente para garantizar que su IA es segura, deberían pensárselo de nuevo.
Entonces, ¿qué pueden hacer las empresas para evitar que su IA cause daño?
La respuesta no está en abandonar por completo los esfuerzos éticos de la IA. En cambio, las organizaciones deben asegurarse de que estos marcos también se desarrollan en conjunto con una estrategia más amplia de IA ética que se centre directamente en la implementación, con métricas concretas en el centro. Cada principio de IA que adopte una organización, en otras palabras, también debe tener métricas claras que puedan medir y supervisar los ingenieros, los científicos de datos y el personal jurídico.
Centro de información
La IA y la igualdad
Patrocinado por SAS
Diseñar sistemas que sean justos para todos.
Las organizaciones pueden empezar con una admisión: tomarse en serio la IA ética no es tarea fácil. Aplicar los principios de la IA ética a los entornos de despliegue del mundo real requiere mucho tiempo y recursos que abarcan los departamentos legales, de ciencia de datos y de riesgos y, en algunos casos, requiere experiencia externa. De hecho, dado que no existe un enfoque talle único para cuantificar los posibles daños causados por la IA, es probable que las métricas de una IA ética varíen según las organizaciones, los casos de uso y las jurisdicciones reguladoras. Simplemente no hay una manera mejor de medir un principio como la transparencia o el bienestar de la IA. Pero eso no tiene por qué desanimar a las organizaciones que se toman en serio la IA ética, que puede basarse en una combinación de las investigaciones existentes, los precedentes legales y las mejores prácticas técnicas.
En el ámbito de la equidad, por ejemplo, hay años de jurisprudencia en derecho crediticio, inmobiliario y laboral en los Estados Unidos que pueden servir de guía para medir la discriminación algorítmica, un tema que tengo abordado anteriormente. Puede que las organizaciones quieran adoptar o modificar medidas como la ratio de impacto adverso, el efecto marginal o la diferencia media estandarizada, que se utilizan ampliamente para cuantificar la discriminación en entornos de préstamos justos altamente regulados. El uso de estas métricas o similares para garantizar la equidad permitirá a los científicos de datos entender cuándo y cómo su IA está creando daños discriminatorios y actuar con rapidez cuando lo hace.
En el mundo de la privacidad, hay un montón de métricas que las organizaciones pueden adoptar para cuantificar también las posibles violaciones de la privacidad. Si bien hay numerosos ejemplos de investigaciones sobre el tema ( este estudio es una de mis favoritas), un conjunto de técnicas llamadas «tecnologías que mejoran la privacidad» puede ser uno de los mejores puntos de partida para poner en práctica los principios relacionados con la privacidad. Métodos como privacidad diferencial, que tienen paquetes de código abierto que los científicos de datos pueden adoptar listos para usar, se basan en la idea explícita de que la privacidad se puede cuantificar en grandes conjuntos de datos y muchos gigantes tecnológicos la han utilizado durante años. Existen investigaciones similares en el mundo de la IA interpretabilidad y seguridad también, que puede combinarse con una serie de principios de IA que se defienden comúnmente, como la transparencia, la solidez y más.
Todo lo cual significa que, dado que las organizaciones se dedican a la difícil tarea de aplicar las métricas relacionadas con la ética a su IA, no tienen por qué empezar de cero. Con métricas claras en sus marcos éticos, las organizaciones pueden entender más fácilmente cuándo se producen fallos éticos en su IA.
¿Hay desventajas en hacer cada vez más hincapié en el papel de la métrica en la IA ética? Sin duda. Hay algunas facetas de la toma de decisiones algorítmica que son difíciles, si no imposibles, de cuantificar. Esto significa que es probable que muchos despliegues de IA conlleven riesgos intangibles que requieren una revisión cuidadosa y crítica. Hacer demasiado hincapié en las métricas puede, en algunas circunstancias, llevar a que se pase por alto el riesgo en estas áreas. Además, se necesita mucho más que unas métricas claras para garantizar que la IA no genera daños graves. Los mecanismos de rendición de cuentas, la documentación, los inventarios modelo y más también deben ser los principales componentes de cualquier esfuerzo por implementar la IA de manera responsable.
Pero no proporcionar métricas claras de los daños a la IA, como ocurre con demasiada frecuencia en las organizaciones que utilizan la IA, genera confusión entre el personal técnico y legal de primera línea, que necesita indicadores mensurables para saber si su IA se está portando mal y saber cómo responder cuando lo hace.
Y si bien la tarea de traducir los principios de la IA en métricas concretas es a la vez un desafío intelectual y requiere muchos recursos, las organizaciones que adoptan la IA no deben dejarse intimidar. De hecho, no pueden darse el lujo de estarlo. La alternativa al desafío al que se enfrentan, es decir, esperar para medir los daños de la IA hasta después se producen, serán mucho más difíciles y costosos para sus consumidores, su reputación y sus resultados.
En última instancia, la pregunta no es si Los daños de la IA hay que medir, pero cuando. Si las organizaciones esperan demasiado para cuantificar los daños que puede causar su IA, los tribunales empezarán a hacerlo por ellas.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.