PathMBA Vault

AI and machine learning

El problema de confianza de la IA

por Bhaskar Chakravorti

El problema de confianza de la IA

Con decenas de miles de millones invertidos en IA el año pasado y actores líderes, como OpenAI, que buscan billones más, la industria de la tecnología se apresura a sumarse a la acumulación de modelos de IA generativos. El objetivo es demostrar de manera constante un mejor rendimiento y, al hacerlo, cerrar la brecha entre lo que los humanos pueden hacer y lo que se puede lograr con la IA.

Sin embargo, hay otro abismo al que se le debe dar igual prioridad, si no mayor, a la hora de pensar en estas nuevas herramientas y sistemas: la brecha de confianza de la IA. Este vacío se cierra cuando una persona está dispuesta a confiar a una máquina para hacer un trabajo que, de otro modo, se habría confiado a humanos cualificados. Es esencial invertir en analizar esta segunda brecha infravalorada —y en lo que se puede hacer al respecto— para que la IA se adopte ampliamente.

La brecha de confianza en la IA puede entenderse como la suma de los riesgos persistentes (tanto reales como percibidos) asociados a la IA; según la aplicación, algunos riesgos son más críticos. Abarcan tanto el aprendizaje automático predictivo como la IA generativa. Según la Comisión Federal de Comercio, los consumidores expresan su preocupación sobre la IA, mientras las empresas están preocupadas sobre varios temas a corto y largo plazo. Tenga en cuenta los 12 riesgos de la IA que se encuentran entre los más citados en ambos grupos:

  • Desinformación
  • Seguridad y protección
  • El problema de la caja negra
  • Preocupaciones éticas
  • Prejuicio
  • Inestabilidad
  • Alucinaciones en los LLM
  • Incógnitas desconocidas
  • Pérdida de empleo y desigualdades sociales
  • Impacto ambiental
  • Concentración industrial
  • Exceso de alcance estatal

En conjunto, el efecto acumulativo de estos riesgos contribuye al escepticismo público generalizado y a la preocupación empresarial sobre el despliegue de la IA. Esto, a su vez, disuade la adopción. Por ejemplo, los radiólogos duda en adoptar la IA cuando la naturaleza de caja negra de la tecnología impide entender claramente cómo el algoritmo toma decisiones sobre la segmentación de las imágenes médicas, el análisis de supervivencia y el pronóstico. Garantizar un nivel de transparencia en el proceso de toma de decisiones algorítmico es fundamental para que los radiólogos sientan que cumplen con sus obligaciones profesionales de manera responsable, pero la transparencia necesaria aún está muy lejos. Y el problema de la caja negra es solo uno de los muchos riesgos de los que preocuparse. Dados problemas similares en diferentes situaciones de aplicación e industrias, debemos esperar que la brecha de confianza de la IA sea permanente, a medida que mejoremos en la reducción de los riesgos.

Esto tiene tres implicaciones principales. En primer lugar, no importa cuánto lleguemos a mejorar el rendimiento de la IA, los usuarios domésticos y empresariales, los responsables de la toma de decisiones en las organizaciones, los responsables políticos) deben superar una brecha de confianza persistente. En segundo lugar, las empresas tienen que invertir en entender los riesgos principales responsables de la brecha de confianza que afecta a la adopción de sus aplicaciones y trabajar para mitigar esos riesgos. Y en tercer lugar, combinar a los humanos con la IA será la herramienta de gestión de riesgos más esencial, lo que significa que siempre necesitaremos que los humanos nos guíen a superar la brecha, y los humanos necesitan recibir la formación adecuada.

Tenga en cuenta los 12 riesgos. Para cada una de ellas, hay cuatro preguntas: ¿Cómo socavan la confianza en la IA? ¿Cuáles son las opciones —iniciadas por la industria o exigidas por los reguladores— para mitigar o gestionar el riesgo? ¿Por qué las opciones ofrecen, en el mejor de los casos, una solución parcial que permite que el riesgo persista? ¿Cuáles son las lecciones aprendidas y las implicaciones? En conjunto, ayudan a reducir la brecha de confianza en la IA, por qué cabe esperar que persista y qué se puede hacer al respecto. 

[  1  ]

Disinformation

La desinformación en Internet no es nueva, pero las herramientas de IA la han impulsado. Los deepfakes ayudados por la IA han acompañado a las elecciones desde Bangladesh (donde aparecía un líder de la oposición en bikini) hasta Moldavia (donde antes de las elecciones circuló un vídeo falso del presidente apoyando al partido prorruso), lo que dio a los votantes motivos para desconfiar de la información esencial necesaria para el funcionamiento de las democracias. A finales de 2023, El 85% de los usuarios de Internet preocupado por su incapacidad para detectar contenido falso en Internet, un grave problema dado Las principales elecciones de 2024 en todo el mundo.

Las empresas de redes sociales no están abordando la amenaza en gran medida, ya que la mayoría han reducido drásticamente el número de moderadores de contenido humano, que son la defensa más exitosa contra la desinformación. La mayor empresa de plataformas, Meta, por ejemplo, reducido drásticamente los equipos de moderación de contenido, archivaron una herramienta de verificación de datos que estaba en desarrollo y cancelado contratos con moderadores de contenido externos como parte de su «año de eficiencia» en 2023. Ahora, la plataforma se ocupa de un avalancha de extraño contenido generado por la IA impulsado por la publicidad, un recordatorio de que los algoritmos de recomendación en las redes sociales son otra forma de IA que se puede manipular. Los retiros de Meta se reflejaron en YouTube, que cortar su equipo de moderación de contenido, y en X, con un desmantelamiento aún más drástico. (Si bien Tik Tok no ha sufrido el mismo nivel de recortes en sus equipos de moderación de contenido, tiene que defenderse de una serie de preocupaciones diferentes: la preocupación por puso en peligro la seguridad y la privacidad de datos de usuario.) La moderación algorítmica y automática de contenido que se ofrece a menudo en lugar de la moderación humana está lejos de ser adecuado.

En ausencia de una mitigación iniciada por la empresa, la responsabilidad recae en los reguladores, que intervienen para obligar a las empresas a actuar. En los EE. UU., varios estados han introducido proyectos de ley contra la desinformación relacionada con las elecciones y las falsificaciones profundas. La Casa Blanca tiene un orden ejecutiva exigir la «marca de agua» o etiquetado transparente del contenido creado por la IA, lo que también exige la recientemente aprobada por la UE Regulación de la IA. En otros lugares, el gobierno de la India sostiene las empresas de redes sociales rinden cuentas para contenido marcado como perjudicial que no se ha eliminado.

Sin embargo, estas medidas bien intencionadas de gestión de riesgos pueden tener consecuencias no deseadas, ya que las plataformas pueden simplemente asignar recursos de moderación limitados a los mercados con mayor presión reguladora en lugar de invertir con más moderación. EE. UU. o la UE recibirán una sobreasignación a expensas del resto del mundo, especialmente de los países en desarrollo, donde las exigencias regulatorias y comerciales son más bajas, a pesar de que haya muchos más usuarios en estos lugares. Hay pruebas de que ya se estaban produciendo antes de los recientes recortes: El El Wall Street Journal  descubierto que en 2020, el 87% del tiempo de moderación de contenido de Facebook se dedicó a publicaciones en EE. UU., a pesar de que el 90% de los usuarios de Facebook no eran estadounidenses.

La lección es que tenemos que aceptar la dura realidad de que la desinformación será difícil de eliminar. Según el lugar del mundo en el que se encuentre, podría incluso aumentar en volumen y, con la creciente sofisticación de los deepfakes con ayuda de la IA, en el grado de engaño. La vigilancia humana y la educación en» higiene digital» será imprescindible.

[  2  ]

Safety and security

Las perspectivas de los riesgos de seguridad y protección de la IA son alarmantes. En el la mayor encuesta de la historia entre expertos en IA y aprendizaje automático, entre el 37,8 y el 51,4% de todos los encuestados sitúan al menos un 10% de probabilidades en escenarios tan nefastos como la extinción humana, e incluso el 48% de los optimistas de la red sitúan esa probabilidad en el 5%. Es difícil pensar que evaluaciones tan nefastas se consideren aceptables para cualquier otra tecnología que actualmente se esté adoptando ampliamente. Por supuesto, hay riesgos menos apocalípticos: casos de uso malintencionado de las herramientas de IA en los ciberataques, ser «jailbreak» para seguir órdenes ilegales, etc. En la misma encuesta, a situaciones, como las probabilidades de que la IA sea hackeada, se les dio una probabilidad relativamente alta: la mayoría de los encuestados lo calificaron como «probable» o «muy probable» — incluso en el año 2043.

Una vez más, la normativa es fundamental para mitigar esos riesgos. La orden ejecutiva de la Casa Blanca y el reglamento de la UE exigen que los modelos de IA generativa por encima de un determinado umbral de riesgo publiquen los resultados de simulaciones ataques del «equipo rojo» para identificar las vulnerabilidades. Dicho esto, no está claro que esos requisitos puedan ser eficaces para eliminar el riesgo. Lo que es peor es que medidas como los requisitos de equipo rojo pueden ser fomentar el simple «teatro de seguridad». Hay pocos estándares sobre métodos y criterios infalibles para hacer equipos rojos, y aunque los reglamentos impongan cierta transparencia, es difícil confirmar que esos esfuerzos hayan sido exhaustivos. Las empresas emergentes son poco probables tener los recursos para hacer este trabajo internamente o garantizar las pruebas de origen externo, introduciendo así nuevas fuentes de vulnerabilidad a medida que sus productos se conectan al ecosistema más amplio de la IA o la carga de costes disuade a las empresas emergentes desde el principio.

La lección más importante —como creen muchos expertos— es que los riesgos de seguridad y protección de la IA son imposibles de eliminar en un futuro próximo. Esto significa que la concienciación y la preparación serán clave y, para las solicitudes más críticas y de vida o muerte —desde la seguridad nacional hasta la atención médica— será importante mantener a los humanos informados y garantizar que las decisiones nunca se automatizan del todo; por ejemplo, en las negociaciones muy delicadas entre países con armas nucleares, los acuerdos deberán garantizar que las decisiones relacionadas con el lanzamiento de pruebas o misiles permanezcan en manos de los humanos.

[  3  ]

The black box problem

La transparencia es esencial para generar confianza. Con la IA, eso puede incluir informar a los usuarios cuando interactúan con un modelo de IA, poder explicar cómo se produce un resultado en particular y tener en cuenta la información que las partes interesadas necesitan y entregarla en términos que puedan entender. Los reglamentos clave, como la Ley de IA de la UE, serán hacer cumplir ciertas normas de transparencia, pero el desafío siempre presente es que los incentivos para las empresas de IA las animan a minimizar la transparencia, a preservar la ventaja competitiva y la propiedad intelectual, a prevenir los hackeos malintencionados y a reducir la exposición a demandas por derechos de autor. Como tal, la IA suele ser una caja negra; no está claro por qué produce el resultado que produce.

Un enfoque de transparencia liderado por la industria es parte del atractivo del desarrollo de la IA de código abierto. Pero esto también tiene limitaciones. Hay demasiados datos en los modelos de IA, desde los datos de entrenamiento hasta el código utilizado para preprocesarlos y gobernar el proceso de entrenamiento, la arquitectura modelo del modelo, etc., tanto es así que los expertos no pueden ponerse de acuerdo sobre lo que realmente constituye «código abierto». Las empresas utilizan esta ambigüedad como tapadera para crear sus propias definiciones y ocultar el componente clave —los datos de formación, incluidos los datos «sintéticos» — de la vista del público. Incluso las empresas, como Meta, que defienden los modelos de código abierto, son cada vez menos «abiertas» con el tiempo: su modelo Llama 2 es mucho menos transparente que Llama 1. E incluso Llama 2, un estándar del sector en materia de transparencia, solo tarifas 54 de cada 100 en la puntuación de transparencia del Centro de Investigación sobre Modelos Fundacionales de Stanford. Empresas, como IBM, han ofrecido «hojas informativas» como voluntarias sobre los mecanismos de seguimiento y transparencia, pero la autodivulgación no auditada no es el mecanismo ideal para generar confianza.

Una vez más, se espera que los reglamentos desempeñen un papel a la hora de mitigar los riesgos de los sistemas de caja negra. La regulación podría obligar a las empresas a someterse a auditorías externas de los modelos de IA y a publicar los resultados, pero eso requeriría criterios de auditoría, normas, auditores creíbles y una verdadera aplicabilidad normativa. Una ley de Nueva York que exige a los empleadores utilizar herramientas automatizadas de decisión laboral para auditarlos para detectar prejuicios raciales y de género fue declarada inútil por un estudio reciente de Cornell. El Instituto Nacional de Estándares y Tecnología tiene un Marco de gestión de riesgos de la IA, pero sin certificación, normas o una metodología de auditoría, todavía no es efectivo.

La lección aquí es que, si bien se avanza en materia de transparencia, el problema de la IA como caja negra se mantendrá. Cada área de solicitud tendrá que desarrollar iniciativas orientadas a fomentar la transparencia, lo que ayudará a facilitar el proceso de adopción. Por ejemplo, para ayudar a fomentar la confianza entre los radiólogos señalados anteriormente, «interpretabilidad» de la IA — es decir, poder entender la causa de una decisión tomada por un algoritmo, con aplicaciones radiológicas es un campo de investigación crucial y en crecimiento para apoyar la práctica clínica y la adopción.

[  4  ]

Ethical concerns

La mayoría de los usuarios están de acuerdo que es fundamental garantizar que los algoritmos van más allá de las matemáticas y los datos y van acompañados de directrices que garanticen los principios éticos, por ejemplo, que respeten los derechos y los valores humanos, sin importar lo que sugieran las matemáticas. Ha habido varios intentos de lograr que los desarrolladores de IA se unan en torno a criterios éticos aceptados universalmente: el Los principios de la IA de Asilomar, por ejemplo, adoptar los «valores humanos», la «libertad y la privacidad», el «bien común», entre otros ideales a la hora de desarrollar y utilizar modelos de IA. Pero hay tres obstáculos para ese esfuerzo.

Por un lado, los ideales éticos no son universales. Los dos países predominantes de la IA, EE. UU. y China, interpretan «libertad y privacidad» de manera diferente: la libertad de expresión es primordial en los Estados Unidos, mientras que en China, la expresión sin moderación entra en conflicto con el «bien común». Incluso en los Estados Unidos, con sus amargas guerras culturales y su polarización, los grupos a favor de la vida y a favor del derecho a decidir difieren en cuanto a los «valores humanos». Algunos quieren que la IA sea anti- «despertó», mientras que otros quieren la IA descolonización.

En segundo lugar, los organismos transnacionales apolíticos tienen poderes limitados. La ONU tiene principios éticos de la IA de acuerdo con su carta y la UNESCO ha unido a las empresas para que se comprometan a crear una IA más ética. Dado que la mayor parte del desarrollo de la IA tiene lugar en el sector privado, la influencia de la ONU es limitada.

En tercer lugar, los incentivos organizativos de las empresas de IA exacerban las tensiones entre la ética y otras consideraciones. Por ejemplo, con una fuerza laboral en general inclinado a la izquierda políticamente, se necesita diversidad política en la supervisión ética. Esto es difícil de hacer en la práctica: los esfuerzos de Google por crear un consejo asesor ético de la IA se desmoronó cuando los empleados se opusieron al nombramiento del presidente de la derechista Fundación Heritage. La tan publicitada drama de sala de juntas contra Sam Altman en OpenAI, el intento fallido separar DeepMind de la estructura empresarial estándar de Google tras su adquisición, y la implosión del liderazgo de Stability AI también son recordatorios recurrentes de la batalla por las prioridades en las empresas pioneras de la IA: en repetidas ocasiones, los objetivos comerciales triunfan sobre la IA por los ideales del «bien común».

La lección aquí es que los dilemas éticos dependen del contexto y formarán parte permanente de los sistemas de IA; son especialmente críticos si dan lugar a decisiones excluyentes o peligrosas. Será esencial mantener informados a los humanos, incluidos los que se reúnen como juntas de gobierno o supervisión y los equipos de organismos de control externos.

[  5  ]

Bias concerns

Los sesgos en la IA provienen de muchas fuentes: datos de entrenamiento sesgados o limitados, las limitaciones de las personas que participan en el entrenamiento e incluso el contexto de uso. Pueden erosionar la confianza en los modelos de IA cuando aparecen en aplicaciones críticas, por ejemplo, cuando se descubre que los prestamistas tienen más probabilidades de denegar préstamos hipotecarios a las personas de color en un porcentaje aún mayor cuando se utiliza la IA para la aprobación de hipotecas. Hay varias medidas atenuantes que se pueden tomar, como hacer cumplir las restricciones de equidad sobre los modelos de IA, la adición de fuentes de datos más diversas, la formación de los desarrolladores de IA para que reconozcan los sesgos, la diversificación de la reserva de talentos de la IA, el uso herramientas y métricas para comprobar los sesgos, etc.

A pesar de estas medidas correctivas, es posible que la IA nunca esté libre de sesgos de forma fiable para varias razones . Por un lado, dado que las herramientas de IA se entrenan en entornos cerrados y pueden encontrarse con entornos de aplicaciones desconocidos, pueden producir sesgos sorprendentes debido a su exposición limitada a los datos del mundo real. Además, los procesos para comprobar la presencia de sesgos son difíciles. Las definiciones de lo que constituye sesgo e injusticia pueden variar ampliamente en contextos tan diferentes como Occidente, China o la India; la idea de «equidad», por ejemplo, se presta a 21 definiciones diferentes, lo que dificulta llegar a un consenso sobre cuándo un resultado se considera verdaderamente imparcial. Incluso los sesgos de «desaprender» pueden ser peligrosos, ya que podría introducir nuevas asociaciones impredecibles aprendido con el modelo de IA, lo que empeora las cosas en general; la producción de Google y Meta de productos defectuosos imágenes ahistóricas ofrece un claro ejemplo de esos riesgos. Además, los modelos de IA también corren el riesgo se están acabando los nuevos datos de alta calidad para entrenar y neutralizar los sesgos derivados de conjuntos de datos limitados o de baja calidad.

La lección es que debemos aceptar que los modelos de IA se entrenan con limitaciones —de datos o de los propios entrenadores que operan con límites humanos— y los sesgos serán inevitables. Será esencial aplicar el juicio y la vigilancia humanos, así como tomar medidas correctivas rápidas antes de que causen daño.

[  6  ]

Instability concerns

En algunos contextos, las decisiones de la IA pueden cambiar drásticamente si la entrada se cambia un poco y no de manera significativa, lo que provoca errores y diferencias pequeñas o catastróficas en los resultados. Por ejemplo, se puede confiar en los vehículos autónomos con muchas funciones, pero a veces fallan: por ejemplo, cuando un pequeña obstrucción en una señal de alto hace que un coche asistido por IA pase junto a él. Si bien los modelos de IA se mejoran constantemente añadiendo datos de entrenamiento, mejorando los protocolos de prueba y el aprendizaje automático continuo, las investigaciones académicas sobre la «estabilidad» de la IA han descubierto que, más allá de los problemas básicos, es matemáticamente imposible desarrollar algoritmos de IA universalmente estables. Esto significa que nunca podemos estar seguros de que la IA tome decisiones acertadas cuando hay ni un poquito de ruido en los datos de entrada.

La lección aquí es que los sistemas de IA pueden ser sensibles a los pequeños cambios, que son inevitables en el mundo real más allá del conjunto de datos de entrenamiento. La presencia de personas alertas para hacer una corrección o anulación manual será fundamental en estas situaciones.

[  7  ]

Hallucinations in LLMs

Las alucinaciones de la IA han provocado que las modelos hagan cosas raras, desde profesando estar enamorado con sus usuarios a afirmar tener espió a los empleados de la empresa. Muchos productores de IA han desarrollado una serie de técnicas de mitigación. Por ejemplo, IBM recomienda utilizar datos de entrenamiento de alta calidad; establecer límites claros en el uso del modelo de IA; utilizar plantillas de datos para facilitar la coherencia de los resultados; y realizar pruebas y refinamientos continuos. Independientemente de las medidas que se tomen, las investigaciones sugieren que hay un límite inferior estadístico sobre las tasas de alucinaciones, lo que significa que siempre habrá una posibilidad de que aparezcan alucinaciones. Una vez más, como es lógico en los modelos probabilísticos, independientemente de la calidad de la arquitectura del modelo o del conjunto de datos, se puede esperar que los casos de alucinaciones disminuyan, pero nunca se eliminen.

La lección es no confiar nunca ni poner en uso público ningún producto de un modelo de IA generativa, especialmente en escenarios de alto riesgo, como la documentación legal, sin que profesionales capacitados lo comprueben minuciosamente. Esto puede ayudar a evitar situaciones como aquella en la que ChatGPT inventó media docena de casos judiciales falsos con citas y citas falsas mientras preparaba un escrito legal.

[  8  ]

Unknown unknowns

La IA puede actuar de formas que los humanos no podemos anticipar. Las modelos pueden tener puntos ciegos, sus datos de entrenamiento pueden no estar alineados con el entorno en el que se aplican y pueden cometer errores que los desarrolladores no puedan entender. Los modelos de reconocimiento de imágenes identifican los objetos con confianza, pero pueden, inexplicablemente, equivocarse por completo. Entrenar continuamente a los modelos con nuevos conjuntos de datos ayuda a reducir las posibilidades, pero aunque el modelo mejore, siempre habrá más información más allá de su línea de visión y los riesgos que crean esos elementos faltantes se agravan y pueden evolucionar de formas inesperadas.

La lección es que aplicar sin lugar a dudas la IA, que en sí misma tiene puntos ciegos, es una receta para el desastre; es fundamental garantizar que la mano humana guíe las decisiones teniendo en cuenta el contexto de la aplicación.

[  9  ]

Job losses and social inequalities

Las economías con una productividad en aumento deberían experimentar rápidos aumentos salariales. Las expectativas sobre el impacto de la IA en la productividad varían: McKinsey ha proyectado una optimista máximo del 3,3% anual para 2040 debido al uso de la IA generativa. El exdirector ejecutivo de Google, Eric Schmidt, espera que la IA duplicar la productividad de todos. El presidente de la Reserva Federal de los Estados Unidos, Jerome Powell, es más mesurado a la hora de predecir el impacto de la IA en la productividad y espera pocos cambios a corto plazo.

Una forma natural de hacerse una idea más firme del impacto es recurrir a la historia. Por desgracia, en este caso, la historia ofrece poca orientación. El crecimiento de la productividad de los trabajadores estadounidenses, de hecho, cayó con la introducción de las primeras tecnologías digitales. Incluso cuando doblado a finales de la década de 1990, cuando se lanzó la World Wide Web, la oleada duró poco, con subidas posteriores en 2009 durante la Gran Recesión, tras el inicio de la pandemia en 2020, y luego de nuevo hasta 4.7%, en el tercer trimestre de 2023, demasiado pronto para atribuirlo a la IA. Esto no ofrece pruebas suficientes para ser optimistas sobre el impacto de la IA en la productividad y los salarios de las economías.

Las empresas individuales, sin embargo, son más alcista, lo que podría traducirse en la pérdida de puestos de trabajo a medida que la IA asuma tareas realizadas por humanos. Pero eso significaría que la IA aumentaría los salarios de los empleados y, al mismo tiempo, provocaría pérdidas salariales para quienes tienen puestos de trabajo desplazados, lo que empeoraría las desigualdades sociales. Para contrarrestar esos temores, algunos expertos anticipan que la IA generativa puede reducir las desigualdades dando a los trabajadores menos cualificados acceso a herramientas para una movilidad ascendente. La historia es más útil aquí, ya que sugiere que las desigualdades aumentarán: la desigualdad salarial era la que más tendía a aumentar en países en los que las empresas ya dependían de la automatización; los trabajadores negros e hispanos eran sobrerrepresentado en las 30 ocupaciones con mayor exposición a la automatización e infrarrepresentadas en las 30 ocupaciones con la menor exposición; y se esperaba que las mujeres se vieran afectadas negativamente de manera desproporcionada con79% de las mujeres trabajadoras en ocupaciones vulnerables al desplazamiento laboral debido a la IA generativa, en comparación con el 58% de los hombres trabajadores que son vulnerables al desplazamiento.

La lección general es que la sombra de la pérdida de puestos de trabajo y el aumento de las desigualdades sociales se cierne sobre la adopción de la IA. Incluso reconocer la adopción de la IA puede resultar problemático: el mayor despido de UPS en su historia fue debido a que la IA sustituyó a los humanos, según el CEO en una convocatoria de ganancias, pero un portavoz negó más tarde cualquier relación entre los despidos y la IA. Está claro que el CEO quería señalar a los inversores que la empresa estaba adoptando la IA para beneficiarse de la rentabilidad de la reducción de la plantilla, pero también tuvo consecuencias negativas en las relaciones públicas; esto sugiere que el impacto en los puestos de trabajo crea fricciones a la hora de adoptar la IA de todo corazón. Con múltiples preocupaciones por equilibrar, es de esperar que las empresas adopten la IA con prudencia. 

[  10  ]

Environmental impact

Se espera que la participación de la IA en el consumo de energía de los centros de datos en todo el mundo aumente al 10% en 2025. Para 2027, con el agua necesaria para la refrigeración, el uso de los centros de datos por parte de la IA podría eliminar el equivalente a la mitad del agua que se consume en el Reino Unido cada año. Se necesitan chips cada vez más potentes para la IA, y son contribuyendo a uno de los flujos de residuos de más rápido crecimiento. Ninguna de estas tendencias muestra señales de desaceleración. El aumento del uso de la IA generativa, especialmente para la producción de imágenes, empeorará aún más las cosas. Una estudiar descubre que 1000 imágenes que utilizan Stable Diffusion XL emiten tanto dióxido de carbono como un coche de gasolina que conduce 6,1 millas.

Una consideración importante es que las aplicaciones asistidas por la IA pueden reemplazar a otras actividades costosas desde el punto de vista medioambiental y pueden ayudar a reducir las emisiones y el uso de los recursos. Sin embargo, es necesario ser consciente de su impacto. Acciones específicas, como la Ley de Impacto Ambiental de Inteligencia Artificial de 2024 , presentadas en el senado de los Estados Unidos, son loables, pero serán un desafío sin normas para medir o verificar las emisiones relacionadas con la IA. Otro enfoque para mitigar los riesgos es hacer que los nuevos centros de datos funcionen con energía renovable, pero la demanda de ellos crece demasiado rápido como para que funcionen totalmente con energía renovable. Incluso con iniciativas de reciclaje en vigor, solo 13.8% de los residuos electrónicos documentados se recogen y reciclan formalmente con una estimación16% fuera del sistema formal en los países de ingresos altos y medios altos. En un futuro próximo, el impacto ambiental negativo de la IA es ineludible.

La lección aquí es que, al igual que varios sectores, como la industria de los combustibles fósiles o los fabricantes de vehículos que consumen mucha gasolina, han perdido la confianza de muchos consumidores debido a su impacto ambiental, la IA podría correr riesgos similares. El juicio humano es necesario para evaluar si los beneficios de, por ejemplo, incorporar mejoras de la IA a los productos con alternativas suficientemente buenas valen la pena los costes medioambientales.

[  11  ]

Industry concentration

A pesar de la alta prioridad otorgada a la IA por parte de liderazgo político, su desarrollo está liderado por la industria. Las razones son estructurales: el desarrollo de la IA requiere varios insumos críticos, como talento, datos, potencia de cálculo y capital, y el sector privado está mejor posicionado para tener acceso a ellos. Además, estos recursos se concentran en unas pocas firmas.

Hay dos puntos de concentración principales en la cadena de valor de la IA. Un puñado de innovadores dinámicos que desarrollan modelos de IA recurren a otro puñado de grandes empresas para obtener insumos críticos. Nvidia, Salesforce, Amazon, Google y Microsoft son los principales inversores en los principales innovadores de la IA, mientras que Meta es una fuente importante de modelos de código abierto.

Además del capital, los desarrolladores de modelos de IA recurren a Nvidia en busca de unidades de procesamiento gráfico, a proveedores de nube como Amazon y Microsoft para ejecutar los modelos, mientras que Google, Meta y Microsoft integran la IA para defender sus productos principales. Incluso con una capa más competitiva de aplicaciones y servicios de IA diseñados para usos específicos, es evidente que la base de la industria seguirá concentrada. La desconfianza que sienten los usuarios hacia el control de las grandes tecnologías se revisará de formas aún más poderosas a medida que la tecnología haga más uso de la IA.

Las medidas habituales para mitigar los riesgos de concentración de la industria, es decir, el escrutinio regulatorio, se han tomado con retraso. La Comisión Federal de Comercio ha hecho recientemente inició una investigación en este creciente riesgo de concentración. Mientras tanto, la tendencia continúa: desde que se inició la investigación, Microsoft, que ya era el mayor inversor en OpenAI, absorbió al mejor equipo de Inflection y Amazon invirtió 2.750 millones de dólares en Anthropic. Y estos —OpenAI, Inflection y Anthropic— son los tres innovadores de IA más importantes de los EE. UU. en la actualidad.

La lección es que la concentración del poder en unas pocas empresas erosiona la confianza porque los consumidores se sienten atrapados, se preocupan por pagar de más y tienen problemas de privacidad sobre sus datos acorralados por firmas poderosas que pueden explotarlos en otros ámbitos.

[  12  ]

State overreach

Las tendencias apuntan en la dirección de un mayor uso de la IA y las herramientas relacionadas para ejercer el control sobre los ciudadanos por parte de los gobiernos de todo el mundo. Además de esto, la proporción de poblaciones que viven en entornos políticos designados como «libres» por Freedom House tiene caído en la última década y media. Las libertades mundiales de Internet han sido en declive durante 13 años seguidos, según Freedom House, y la IA ha estado facilitando ese declive en de muchas maneras: difundir propaganda estatal, permitir una censura más eficaz, crear perfiles de comportamiento de los ciudadanos y desarrollar el análisis predictivo y la vigilancia. Como prueba del último acontecimiento, considérelo al menos 75 de 176 países en todo el mundo utilizan activamente las tecnologías de inteligencia artificial con fines de vigilancia, incluido el 51% de las democracias avanzadas. Con los datos de los ciudadanos cada vez más en poder de los gobiernos, especialmente con el crecimiento de los sistemas de identidad digital, las probabilidades de abuso de poder son aún mayores. Los expertos preocupados han propuesto varias posibles controles y contrapesos, pero no se han adoptado ampliamente.

La lección más importante es que la preocupación por el exceso de alcance del estado puede llevar a rechazar el uso de la IA, incluso cuando puede ser beneficiosa para la sociedad si se usa con medidas de protección. Poner a prueba la voluntad de aceptar las concesiones será fundamental para garantizar que los ciudadanos se sientan cómodos con que los estados usen la IA. Considere el uso de la tecnología de reconocimiento facial por parte de la policía: ciudades, como San Francisco lo han prohibido.

• • •

Si bien gran parte de la atención se ha centrado en los impresionantes avances en el rendimiento de la IA, los estadounidenses también cada vez más pesimista con respecto al impacto de la IA. En todo el mundo, la confianza en las empresas de IA ha caído, y en los EE. UU., la caída ha sido aún más dramática. Por supuesto, muchas empresas de tecnología y comentaristas sugieren que puede generar confianza en la IA rápida y fácilmente, pero no nos engañemos, un terco La brecha de confianza en la IA persiste. Y ha llegado para quedarse.

Incluso si la brecha de confianza se reduce, es importante recordar que la confianza no se deduce necesariamente de un cálculo matemático o lógico: incluso un tapón de una sola puerta que se está reventando de un avión altera nuestra confianza en todo el sistema de aviación, que estadísticamente es uno de los modos de transporte más seguros. El déficit de confianza afectará a la adopción de aplicaciones muy sensibles, en particular, por ejemplo, la atención médica, las finanzas, el transporte o la seguridad nacional. Los líderes deben reconocer cuáles de los 12 riesgos son más importantes para una solicitud y supervisar los avances en la reducción de la brecha.

A pesar de que la tecnología avance y madure, combinar la IA con los humanos seguirá siendo la principal señal para los posibles usuarios preocupados de que las empresas que utilizan esta tecnología merecen confianza. Pero los humanos que acompañan a la IA tienen que estar preparados, ya sea manteniendo conversaciones basadas en las pruebas, adoptando una ciudadanía activa para analizar los productos ayudados por la IA o garantizando la diversidad entre los equipos que producen la propia IA.

Actualmente, la atención se centra en entrenar a los modelos de IA para que se parezcan más a nosotros. No olvidemos que también debemos entrenar a los humanos. Deben aprender a reconocer las causas del déficit de confianza de la IA, aceptar que se mantendrá y entender la mejor manera de intervenir para llenar ese vacío. Dicho de otra manera, la industria ha gastado decenas de miles de millones en crear productos de IA, como Microsoft Copilot. Es hora de invertir también en lo humano junto con: el piloto.