PathMBA Vault

AI and machine learning

Investigación: Cómo la IA responsable protege los resultados finales

por Oguz A. Acar, Caroline Wiertz, Adi Ghosh

Investigación: Cómo la IA responsable protege los resultados finales

El ochenta y siete por ciento de los directivos reconocen la importancia de una IA (RAI) responsable, según una revista tecnológica del MIT de 2025 encuesta. Este consenso parece abarcar todo el ecosistema de la IA, desde empresas emergentes hasta gigantes tecnológicos, y cada uno de ellos expresa su firme compromiso con los principios de una IA responsable. A primera vista, uno podría caer en la tentación de creer que estamos a punto de un renacimiento ético de la IA.

Sin embargo, solo el 15% de estos mismos gerentes se sienten preparados para adoptar las prácticas de la RAI. Poco más que la mitad (52%) de las empresas que realmente cuentan con un programa de IA responsable, según muestran los datos de BCG. Incluso para las empresas que tienen programas, la mayoría son de pequeña escala o de alcance limitado (79%) y carecen de los controles y la supervisión adecuados de sus programas de IA responsable (el 70%). Todavía hay un vacío entre hablar y actuar sobre una IA responsable.

La discrepancia podría deberse a una mentalidad empresarial anticuada, por consideraciones éticas como lujo o incluso reñido con el desempeño financiero. En la incesante búsqueda del dominio de la IA, las empresas se inclinan más a asignar recursos a las mejoras de la IA que mejoren sus resultados que a los esfuerzos responsables de la IA, que a menudo se consideran generadores de costes. Pero, ¿se mantiene esta supuesta dicotomía entre la responsabilidad ética y la rentabilidad?

La evidencia empírica

Nosotros exploró esta cuestión en el contexto de los productos de IA financiera. En concreto, analizamos cómo la incorporación de funciones responsables en estos productos influye en la adopción por parte de los consumidores. Nuestra investigación se basó en datos cualitativos y cuantitativos de los consumidores.

Empezamos realizando una serie de entrevistas semiestructuradas para descubrir los principales atributos del diseño que impulsan la adopción de los productos de IA. Los resultados sugieren que los consumidores tienen en cuenta principalmente cinco atributos del diseño del producto:

  • Auditabilidad: La capacidad de rastrear y revisar los procesos y decisiones que toma un sistema de IA, incorporando la supervisión humana.
  • Autonomía: El grado en que un sistema de IA puede funcionar de forma independiente, tomar decisiones o tomar medidas sin la intervención humana.
  • Personalización: La capacidad de un producto de IA de adaptar sus funciones, respuestas e interacciones a las preferencias, el historial y las necesidades de cada usuario.
  • Privacidad: La garantía de que un producto de IA protege los datos de los usuarios y mantiene la confidencialidad.
  • Comprensibilidad: La claridad con la que un producto de IA puede describir la razón de ser de sus productos y hacer que su funcionamiento sea comprensible para los usuarios.

Entre ellos, la auditabilidad, la privacidad y la comprensibilidad destacan como los principales atributos relacionados con una IA responsable.

Luego realizamos tres grandes estudios con experimentos de elección discreta en los que participaron un total de 3.268 consumidores. En los experimentos, a cada participante se le presentó una serie de opciones entre dos productos de IA, cada uno de los cuales difería en estos atributos clave. La principal ventaja de este diseño es que exige que los participantes hagan concesiones consideradas entre los diferentes atributos del producto, sin poder elegir los paquetes «ideales». Por ejemplo, los participantes podrían tener que elegir entre un producto de IA que ofrezca una alta personalización pero poca privacidad, o uno que garantice una alta privacidad pero una personalización limitada. Esta elección exige que los participantes decidan qué atributo del producto valoran más: la privacidad o la personalización. Esta metodología es a menudo considerado superior a las encuestas tradicionales, en las que el participante puede calificar ambos atributos como muy importantes sin tener en cuenta realmente las compensaciones entre ellos.

En uno de los experimentos, con una aplicación de planificación de pensiones basada en la IA como producto principal, descubrimos que la característica más importante para impulsar la elección de los consumidores era la privacidad, con una puntuación media de importancia del 31%. A esto le siguió otro atributo responsable de la IA, la auditabilidad, con una ponderación del 26%. La autonomía también se convirtió en un factor importante (23%). Por el contrario, la comprensibilidad (11%) y la personalización (9%) tenían una importancia limitada.

En otro experimento, en el que utilizamos una aplicación de gestión de inversiones en acciones basada en la IA como producto principal, incluimos dos atributos que pueden anular los problemas éticos (precio y rendimiento) en el conjunto de opciones. El rendimiento lideró como se esperaba (un 29%), pero cabe destacar que la privacidad rivalizó con el precio en importancia, y cada uno rondó el 20% de importancia media. La auditabilidad (un 13%) fue el siguiente factor más importante, algo superior a la autonomía (un 10%), mientras que la comprensibilidad y la personalización volvieron a ser relativamente menos importantes (ambos en torno al 4%).

La principal conclusión de nuestra investigación es alentadora: incorporar elementos de IA responsables en el diseño de los productos puede repercutir positivamente en la elección del consumidor, incluso si hay que tener en cuenta el precio y el rendimiento.

Nuestras simulaciones de seguimiento de los experimentos ilustran la magnitud de este cambio. Por ejemplo, la introducción de atributos responsables (es decir, privacidad, comprensibilidad y auditabilidad) en la aplicación de planificación de pensiones llevó a un aumento sustancial previsto de las tasas de adopción: un 63,19% para una aplicación con atributos responsables frente al 2,4% para las que no lo tenían, manteniendo todos los demás factores constantes. Del mismo modo, añadir niveles más altos de atributos de responsabilidad (por ejemplo, no compartir datos con terceros que compartir datos identificables) a la aplicación de inversión llevó a un aumento del 27,5% en la adopción.

Sin embargo, las preferencias de los consumidores por los atributos específicos de la IA responsable no son uniformes. La privacidad y la auditabilidad destacan por ser fundamentales, y se hacen eco de la preocupación generalizada por la seguridad de los datos y la responsabilidad ética. Por el contrario, a los consumidores —al menos por ahora y en el contexto de los productos de IA financiera— no les preocupa especialmente la comprensibilidad. Priorizan saber que sus datos están seguros y que las acciones del sistema son responsables antes que entender los detalles de la forma en que se toman las decisiones de la IA. 

IA responsable Estrategia

Diseñar productos de IA responsables en los que los consumidores confíen

Nuestra investigación revela que las funciones de IA responsables, específicamente la privacidad y la auditabilidad, son poderosos diferenciadores de productos que pueden generar importantes beneficios económicos. Esta conclusión exige a las empresas que reconsideren su asignación de recursos en el diseño de los productos, sobre todo cuando se enfrentan a difíciles concesiones.

Piense en la paradoja de la personalización y la privacidad, un dilema común al que se enfrentan los directores de producto. Los consumidores desean experiencias personalizadas, pero dudan en compartir los datos personales que estas experiencias requieren. ¿Deberían las empresas priorizar la personalización o la privacidad de los usuarios? Nuestra investigación ofrece una respuesta clara para los productos de IA financiera: el valor de la privacidad supera con creces los beneficios de la personalización. Sin embargo, muchas empresas siguen haciendo hincapié en la personalización, pasando por alto los cambios en las preferencias de los consumidores en un mercado cada vez más preocupado por la privacidad, como lo demuestra el reciente consumidor encuestas.

Surge otro equilibrio fundamental entre la privacidad y las capacidades del modelo. Los directivos suelen suponer que deben elegir entre una protección de privacidad sólida y funciones de IA avanzadas. Tomar decisiones en torno al procesamiento en el dispositivo, por ejemplo. Si bien mantener los datos locales mejora la privacidad, limita intrínsecamente el acceso a las sofisticadas capacidades de IA debido a las limitaciones del hardware. El instinto de perseguir las capacidades más avanzadas es comprensible, pero centrarse únicamente en las capacidades es una falta de visión. Los modelos que priorizan la privacidad y mantienen un rendimiento «suficientemente bueno» podrían alinearse mejor con las expectativas de los usuarios e impulsar una mayor adopción.

Inteligencia de Apple ofrece un modelo para sortear esta tensión. En lugar de elegir entre la privacidad y las capacidades, la empresa ha desarrollado una solución híbrida: un modelo de lenguaje reducido que se ejecuta en los dispositivos de forma predeterminada, con la computación en nube solo cuando es necesario. A través de sus Computación en nube privada sistema, mantienen el cifrado de extremo a extremo mientras acceden a una potencia de cálculo adicional, lo que combina eficazmente la protección de la privacidad con capacidades avanzadas de inteligencia artificial.

Otra tensión a la que se enfrentan los directores de productos de IA es entre la auditabilidad y los costes. La supervisión humana puede resultar cara; requiere una inversión significativa en personal, procesos y herramientas. Sin embargo, la combinación de la mejora de los productos, el continuo refinamiento del modelo y el aumento de la adopción por parte de los usuarios genera beneficios económicos que pueden justificar la inversión.

La clave para un mejor diseño de los productos de IA está en entender cómo se desarrollan estas compensaciones en su contexto específico. Las empresas pueden realizar experimentos similares a los nuestros con sus propios clientes para optimizar su enfoque. Con un software de análisis conjunto (nosotros utilizamos Sawtooth) y con una inversión relativamente pequeña (encuestando solo a unos cientos de usuarios), los gerentes pueden evaluar con precisión la forma en que sus segmentos objetivo valoran características específicas.

Incorporar la IA responsable en la estrategia empresarial y de marca

Hacer que las decisiones responsables de la IA sean visibles y creíbles es tan importante como diseñarlas bien. Comunicar valores y prácticas, como AstraZeneca hace—es un buen comienzo, pero no lo suficiente. Los consumidores y las partes interesadas buscan cada vez más pruebas, no solo declaraciones. Para establecer su credibilidad, las empresas deben ir más allá de las declaraciones y demostrar compromisos tangibles. Una forma es mediante validaciones de terceros, como Las certificaciones de IA responsable de la ISO.

Del mismo modo, incorporar una IA responsable en un posicionamiento más amplio de la marca refuerza la credibilidad y la diferenciación. Tenga en cuenta cómo Apple cambió estratégicamente su posicionamiento de la creatividad a la privacidad. Alguna vez conocida por su espíritu de «Think Different», Apple se ha rebautizado progresivamente como la campeona de privacidad del consumidor y reforzó este compromiso en las diversas características de sus productos, como Transparencia en el seguimiento de aplicaciones. Las empresas que adoptan una IA responsable deberían incluirla en su promesa de marca general en lugar de tratarla como una decisión de producto aislada.

Esta perspectiva debería ir más allá del posicionamiento de la marca y abarcar una estrategia más amplia. Las empresas deben alinearse con socios, proveedores y colaboradores que prioricen por igual las prácticas éticas para establecer una imagen coherente y auténtica como organización responsable en toda la cadena de valor. Por ejemplo, si un producto utiliza modelos de conversión de texto a imagen, es importante asociarse con los desarrolladores que seleccionar responsablemente sus datos de entrenamiento, como Adobe Firefly, que es entrenado exclusivamente en imágenes de Adobe Stock, contenido con licencia abierta y material de dominio público con derechos de autor caducados.

La IA responsable como enfoque de gestión de riesgos y cumplimiento

Una vez integradas de forma proactiva y auténtica en el núcleo de una empresa, las prácticas de IA responsables podrían incluso servir de amortiguador contra posibles reveses. Los sistemas de IA no son infalibles, los errores y fallos son casi inevitables. Pero las empresas que incorporan de forma proactiva los principios de la IA responsable en sus operaciones están mucho mejor posicionadas para soportar el escrutinio.

Tenga en cuenta los paralelismos con las filtraciones de datos. Investigar demuestra que las empresas con prácticas de datos más responsables se enfrentan a una reacción significativamente menor cuando se producen infracciones. Los consumidores podrían distinguir de manera similar entre las empresas que han demostrado un compromiso genuino con las prácticas responsables y las que se limitan a hablar de boquilla cuando se producen fallos en la IA.

Comprometerse con una IA responsable también es un enfoque con visión de futuro ante la evolución del panorama regulador. Como organismos reguladores en todo el mundo centrarse más en la IA, como lo ejemplifican iniciativas como la Ley de IA de la UE,  es probable que las empresas que adoptan las normas éticas de forma proactiva naveguen por estas nuevas aguas con mayor facilidad, mitigando los riesgos y eludiendo los posibles obstáculos legales.

Al igual que la evolución de los productos ecológicos y las prácticas sostenibles, que pasaron de ser agradables a ser esenciales para el mercado, la IA responsable podría seguir una trayectoria similar. Este progreso sugiere que las empresas que invierten hoy en día en una IA responsable se están posicionando a la vanguardia tanto del liderazgo ético como de la preparación para el mercado.

En general, apostar por un futuro que valore no solo la innovación, sino también la ética detrás de ella, tiene menos que ver con el idealismo y más con entender la dirección de las tendencias tecnológicas y sociales. Los líderes de la IA responsable de hoy bien podrían ser los líderes del mercado del mañana y cosechar los frutos de su previsión.