PathMBA Vault

AI and machine learning

El enfoque de Adobe para evaluar los riesgos de la IA

por Grace Yee

El enfoque de Adobe para evaluar los riesgos de la IA

Aunque persisten las preocupaciones sobre los riesgos de la IA generativa, la gente está adoptando cada vez más el poder de la IA y sus aplicaciones prácticas en la vida cotidiana. Pero a pesar de compartir una tecnología subyacente común, las aplicaciones de la IA van de lo mundano a lo complejo. Este amplio espectro de casos de uso hace que sea un reto determinar qué barandillas son apropiadas para apoyar la innovación responsable de la IA.

Para hacerlo con eficacia, es fundamental que los líderes consideren detenidamente el contexto en el que opera la IA: comprender las circunstancias, los entornos y las aplicaciones específicas de las tecnologías de IA en los casos de uso del mundo real. La IA se evalúa a menudo a través de sus entradas y salidas, pero esto sólo pinta una imagen parcial. Al dar prioridad al análisis contextual, las empresas pueden diseñar salvaguardas que ayuden a anticipar y mitigar los riesgos en una amplia gama de escenarios y casos de uso.

Las empresas deben pasar de ver la IA como una entidad singular a evaluar su impacto en contextos específicos. He aquí cuatro principios que deben tenerse en cuenta a la hora de codificar un proceso de revisión ética basado en el contexto que permita una evaluación más precisa de los riesgos y garantice que las salvaguardias se ajustan a los casos de uso en el mundo real.

La participación humana es fundamental.

Las diferentes aplicaciones de la IA varían mucho en su nivel de impacto. El mismo gran modelo lingüístico (LLM) que genera una recomendación de viaje inspiradora también podría fabricar información médica crítica; sin embargo, sólo uno de ellos tiene consecuencias que alteran la vida. Aunque estos LLM pueden compartir similitudes técnicas, sus riesgos difieren drásticamente para la persona que utiliza esa tecnología.

Y con el auge de la IA agéntica, los líderes necesitan mantenerse ágiles con la forma en que evalúan los casos de uso. Según Deloitte, para 2027, la mitad de las empresas que utilicen IA generativa habrán puesto en marcha pilotos de IA agéntica que puedan actuar como asistentes inteligentes, realizando tareas complejas con una supervisión humana mínima. Aunque una mayor autonomía podría permitir a los agentes de IA agilizar las operaciones o mejorar las interacciones con los clientes, sin una supervisión humana adecuada también puede dar lugar a errores graves. Al desplegar la IA agéntica, mantener la supervisión humana será esencial para garantizar que los agentes de IA no realicen acciones en nombre de los usuarios sin su conocimiento.

En Adobe, evaluamos las funciones de la IA clasificándolas como de bajo o alto impacto, dando prioridad a una revisión concienzuda de las áreas de mayor riesgo. Aunque los riesgos de la IA existen en un espectro, esta distinción nos ayuda a centrarnos en los casos en los que el daño es más significativo. Por ejemplo, un modelo de IA que recomiende el estilo de letra conlleva pocos inconvenientes: en el peor de los casos, proporciona sugerencias deficientes. Pero un modelo de generación de texto a imagen tiene implicaciones mucho más amplias e impredecibles.

Al aplicar el análisis de alto/bajo riesgo a la gobernanza de la IA, los líderes pueden garantizar que la supervisión humana siga siendo una salvaguarda central a medida que evoluciona la IA. Este enfoque centrado permite a las organizaciones mitigar los riesgos críticos sin dejar de fomentar la innovación.

El bombo publicitario no equivale a la calidad.

En la carrera de la IA, sacar productos rápidamente a menudo ha tenido prioridad sobre garantizar la fiabilidad y la precisión y mitigar los daños. Una demostración de IA llamativa puede parecer impresionante, pero sin pruebas rigurosas, puede carecer de eficacia en el mundo real e incluso causar daños en el mundo real. La innovación nunca debe comprometer la calidad ni la perspectiva: incorporar una serie de perspectivas al desarrollo inicial de la IA y probar continuamente la tecnología puede ayudar a garantizar que se utilice como se pretende en contextos del mundo real.

Hay una razón por la que las empresas invierten en pruebas beta: Las pruebas internas por sí solas no pueden predecir todas las formas en que los usuarios se relacionarán con la IA. Los comentarios del mundo real son esenciales para identificar comportamientos no deseados y mejorar la fiabilidad. Si es una empresa global o aspira a que su tecnología se convierta en global, debe ampliar el grupo de personas que prueban y utilizan su tecnología para tener en cuenta amplios escenarios y casos de uso culturales.

Por ejemplo, cuando desarrollamos Adobe Firefly, nuestra familia de modelos creativos de IA generativa, inicialmente restringimos el modelo de texto a imagen para que no generara contenidos basados en la palabra “esqueleto”, como precaución ante resultados potencialmente dañinos o perturbadores. Sin embargo, gracias a los comentarios de los usuarios, nos dimos cuenta de que esta restricción también bloqueaba casos de uso cotidianos e inofensivos, como la generación de imágenes de esqueletos para Halloween. Sin la aportación del mundo real, podríamos haber limitado involuntariamente la expresión creativa y las aplicaciones valiosas de la tecnología.

Las barreras de protección de la IA no son de talla única: deben ser adaptables. Lo que es necesario en un contexto puede ser excesivamente restrictivo en otro. Los comentarios continuos de una amplia gama de usuarios ayudan a garantizar que las salvaguardas sigan siendo eficaces y pertinentes.

La IA siempre evolucionará, pero puede anticiparse a las preocupaciones.

Un concepto erróneo común es que los modelos de IA más seguros conducen inherentemente a mejores resultados. En realidad, no existe una IA completamente segura. Se puede diseñar un modelo para que sea “seguro”, pero aún así puede causar daños involuntarios.

Preparar la IA para el futuro no consiste sólo en evitar resultados perjudiciales, sino en crear una IA que siga siendo viable, ética y legalmente sólida a lo largo del tiempo. Las empresas de IA se enfrentan ahora a demandas por derechos de autor, lo que pone de relieve los riesgos de entrenar modelos con datos sin licencia. Si las empresas integran la IA en sus productos sin una base estable, se arriesgan a costosas batallas legales, esfuerzos de reentrenamiento o incluso a tener que eliminar por completo la tecnología de sus servicios.

Comprender los datos de entrenamiento de un modelo es vital para evaluar las limitaciones y los riesgos potenciales. Nuestros modelos de IA generativa Firefly son comercialmente seguros y respetuosos con la propiedad intelectual porque se entrenan exclusivamente con contenido que Adobe tiene permiso para utilizar, incluido el contenido con licencia de Adobe Stock y el contenido de dominio público. Pero eso no significa que no realicemos pruebas rigurosas para detectar riesgos: seguimos haciéndolo. Las barandillas y los mecanismos de seguridad deben ser conscientes del contexto y adaptarse a los datos de entrenamiento del modelo.

Los líderes deben adoptar un enfoque proactivo integrando la evaluación de riesgos legales y éticos en las primeras fases del desarrollo de la IA, en lugar de abordar los problemas de forma retroactiva. Probando rigurosamente los modelos en escenarios del mundo real y adaptando las salvaguardias a la evolución de los riesgos, las empresas pueden crear una IA que no sólo cumpla las normas actuales, sino que también se mantenga resistente frente a futuros retos.

La IA requiere un marco ético sólido.

La innovación responsable comienza con una sólida base ética. Aunque la IA es compleja, su proceso de revisión de la tecnología debe ser claro y procesable. Para construir un marco eficaz de revisión y gobernanza de la IA, los líderes deben establecer la visión y asegurarse de que la estrategia de la IA se alinea con los valores de la empresa.

En Adobe, nuestro equipo directivo convocó a un grupo interfuncional hace seis años para ayudar a establecer nuestros principios éticos de la IA de Rendición de Cuentas, Responsabilidad y Transparencia como base de nuestro enfoque para desarrollar la IA de forma responsable. De este grupo interfuncional surgió la Evaluación del Impacto Ético de la IA, diseñada para ayudar a aplicar estos principios de forma coherente en todas nuestras innovaciones de IA. Esta evaluación examina las consideraciones clave para las nuevas funciones de IA que introducimos para nuestros clientes, incluyendo quién las utilizará y cómo; qué salvaguardas garantizan que el modelo de IA sea seguro, fiable y alineado con las necesidades sociales; y cómo se evaluarán y mitigarán los daños intencionados y no intencionados. Para garantizar su eficacia, primero lo pusimos a prueba con los equipos de producto, perfeccionando las preguntas a partir de sus comentarios para asegurarnos de que eran prácticas, pertinentes y aplicables antes de ampliarlo a toda la empresa. Al incorporar la evaluación del impacto ético de la IA en los flujos de trabajo existentes, la integramos perfectamente en el proceso de desarrollo de productos.

Un equipo de ética de la IA también es esencial para garantizar que la innovación vaya acompañada de una innovación responsable. Los líderes deben facultar a este equipo para que se comprometa a fondo con los equipos de producto, realizando ejercicios proactivos de descubrimiento de riesgos para identificar y mitigar los daños potenciales. A través de este enfoque, nuestro equipo de ética de la IA es capaz de obtener una comprensión fundamental de cómo funcionan las nuevas características de la IA, así como su caso de uso previsto y el público objetivo, lo que nos permite identificar los riesgos del mundo real a través de rigurosas pruebas prácticas.

Más allá del lanzamiento, el apoyo de la dirección permite al equipo de ética de la IA desempeñar un papel fundamental en las pruebas en curso, mitigando los sesgos y mejorando la usabilidad. Sin embargo, el desarrollo ético de la IA no puede depender únicamente de este equipo, sino que debe ser una responsabilidad compartida por toda la empresa. Los líderes deben defender este enfoque para garantizar que la IA siga siendo vanguardista y responsable.

. . .

La ética de la IA no puede basarse en un enfoque rígido, de talla única. El desarrollo y la implantación responsables de la IA requieren comprender el contexto, evaluar el impacto y perfeccionar continuamente los enfoques. Un marco ético matizado e impulsado por el contexto ayuda a garantizar que la IA se despliegue de forma responsable a la vez que se fomenta la innovación.

Además, la incorporación de una amplia gama de perspectivas ayuda a mantener la IA alineada con las necesidades sociales, minimizando el daño potencial en todas las industrias y aplicaciones. La industria, los gobiernos y los usuarios se benefician más de la IA cuando todas las partes reconocen que evaluar los sistemas de IA en su contexto es la forma más eficaz de abordar los retos, al tiempo que se impulsan el progreso y el aumento de la eficiencia.

Sin este enfoque, la IA corre el riesgo de desvincularse de las necesidades del mundo real, amplificando el daño en lugar de reducirlo. Dar prioridad a la ética basada en el contexto garantiza que la IA siga siendo no sólo innovadora, sino también fiable, responsable y, en última instancia, digna de confianza.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.