PathMBA Vault

AI and machine learning

Líder en un mundo en el que la IA ejerce su propio poder

por Jeremy Heimans, Henry Timms

Líder en un mundo en el que la IA ejerce su propio poder

La rueda, la máquina de vapor, el ordenador personal: a lo largo de la historia, las tecnologías han sido nuestras herramientas. Ya sea que se usen para crear o destruir, siempre han estado bajo el control humano y se han comportado de manera predecible y basada en reglas. Mientras escribimos, esta suposición se está desmoronando. Una nueva generación de sistemas de IA ya no son solo nuestras herramientas, sino que se están convirtiendo en actores en sí mismos, en participantes en nuestras vidas, en comportarse de forma autónoma, en tomar decisiones consecuentes y en dar forma a los resultados sociales y económicos.

Este artículo no es otro conjunto de consejos sobre cómo usar ChatGPT. Se trata de cómo conceptualizar y navegar por un mundo nuevo en el que ahora vivimos y trabajamos junto a estos actores. A veces nuestros colegas, a veces nuestros competidores, a veces nuestros jefes, a veces nuestros empleados. Y siempre incrustándose, avance tras avance, hacia la ubicuidad.

Nuestro trabajo e investigación se basan en la exploración de las formas en que la tecnología altera las estructuras de poder y cambia la naturaleza de la participación en la sociedad. Hemos fundado y dirigido empresas, organizaciones y movimientos que utilizan la tecnología para ampliar la participación (entre ellos Giving Tuesday y Purpose), con la participación colectiva de cientos de millones de personas. La última vez que escribimos para HBR, hace casi 10 años (» Entender el «nuevo poder»,» (diciembre de 2014), describimos un cambio importante en la forma en que se podía ejercer el poder. El mundo de la «vieja potencia», en el que el poder se acumulaba y se gastaba como una moneda, se enfrentaba al desafío del surgimiento de un mundo de «nuevas potencias», en el que el poder fluía más como una corriente, surgiendo entre multitudes conectadas. Las nuevas plataformas tecnológicas permitían a las personas ejercer su agencia y su voz de formas que antes estaban fuera de su alcance. Estas oportunidades de participar fueron a la vez un placer y una distracción. Pero de cualquier manera, eran irresistibles y, antes de que nadie se diera cuenta, también habíamos cedido un enorme poder a las mismas plataformas que prometían liberarnos.

Este momento me resulta muy familiar. Con la aparición de estos nuevos actores de la IA, estamos en los albores de otro cambio importante en la forma en que funciona el poder, quién participa y quién triunfa. Y esta vez tenemos la oportunidad, si actuamos pronto y tenemos la visión clara, de hacer las cosas de manera diferente.

La era de la autosapiencia

La IA nos ha influido sutilmente durante años, impulsando todo, desde el reconocimiento facial hasta las calificaciones crediticias. Se ha demostrado que los algoritmos de recomendación de contenido de Facebook afectan a nuestra salud mental y a nuestras elecciones. Pero ahora se acerca una nueva generación de sistemas de IA mucho más capaces. Estos sistemas tienen características y capacidades distintas que aumentan su impacto. Ya no están en el fondo de nuestras vidas, ahora interactúan directamente con nosotros y sus productos pueden ser sorprendentemente parecidos a los humanos y aparentemente saberlo todo. Son capaces de superar los puntos de referencia humanos en todo, desde la comprensión del idioma hasta la codificación. Y estos avances, impulsados por avances materiales en áreas como los grandes modelos lingüísticos (LLM) y el aprendizaje automático, se producen con tanta rapidez que confunden incluso a sus propios creadores.

Para captar con precisión lo que representan estos nuevos actores, lo que son capaces de hacer y cómo debemos trabajar con ellos, debemos empezar con un marco común para identificarlos y distinguirlos, uno que nos lleve más allá de la reconfortante pero falsa suposición de que se trata simplemente de nuestro último conjunto de herramientas.

Piense en ellos más bien como autosapiens. «Automáticos», en el sentido de que son capaces de actuar de forma autónoma, tomar decisiones, aprender de la experiencia, adaptarse a nuevas situaciones y funcionar sin la intervención o supervisión humanas continuas. «Sapiens», ya que poseen un tipo de sabiduría —una amplia capacidad para emitir juicios complejos en el contexto— que puede rivalizar con la de los humanos y superarla en muchos sentidos.

Aunque aún son incipientes, los sistemas autosapientes muestran cuatro características clave. Están agencia (actúan), adaptativo (aprenden), amable (se hacen amigos), y arcano (desconcitan). Estas características nos ayudan a entender la forma correcta de abordarlas y cómo y por qué van a ejercer un poder cada vez mayor. Analicemos cada uno uno uno por uno.

What Defines Auto-sapient Systems? They possess four main characteristics. Auto-sapient systems are AGENTIC, which means they act. They are ADAPTIVE, which means they learn.  They are AMIABLE, which means they befriend. And they are ARCANE, which means they mystify.

Ver más gráficos de HBR en Datos e imágenes

Agencia.

La característica fundamental de los sistemas autosapientes es que pueden llevar a cabo acciones complejas en varias etapas, tomar decisiones y generar resultados en el mundo real, a menudo sin necesidad de la participación humana. Lo hacen sin tener mentes tal como las hemos entendido tradicionalmente. Como dijo recientemente un piloto de la Fuerza Aérea de los Estados Unidos sobre un nuevo sistema aeronáutico propulsado por la IA: «Vuelo por el ala de algo que toma sus propias decisiones. Y no es un cerebro humano».

Los sistemas de agentes pueden ayudar y perjudicar. Por poner un ejemplo con implicaciones catastróficas, hace poco, un grupo de estudiantes no científicos del MIT se enfrentó a un desafío: ¿Podrían hacer que los chatbots de LLM diseñaran una pandemia? La respuesta resultó ser sí. Impulsado por los estudiantes, que sabían muy poco sobre cómo se causan o se propagan las pandemias, el LLM descubrió recetas para cuatro posibles patógenos, identificó las empresas de síntesis de ADN que era poco probable que analizaran los pedidos y creó protocolos detallados con una práctica guía de solución de problemas, todo en menos de una hora.

Puede pensar en la naturaleza agencial de los sistemas autosapientes como un espectro. Por un lado, sus acciones se ajustan a la intención humana, como es el caso de un sistema de IA que se encarga de encontrar y desarrollar un tratamiento para una enfermedad rara, un contrapunto más esperanzador al experimento del MIT. En el otro extremo, pueden adoptar su propia voluntad tremendamente perjudicial. El famoso experimento mental de la IA conocido como «el maximizador de los sujetapapeles» imagina que se le pide a una IA que averigüe cómo producir y proteger tantos sujetapapeles como sea posible. La IA se dedica tanto a la tarea de reunir todos los recursos disponibles del planeta, eliminar a todos los posibles rivales, que causa grandes estragos en todo el mundo. Muchos expertos anticipan un nuevo salto, cuando la IA se desvincule por completo de la intención humana y demuestre ser capaz de fijar sus propias intenciones y actuar por sí sola.

Adaptable.

Los sistemas autosapientes son agentes de aprendizaje que ajustan sus acciones en función de nuevos datos y mejoran su rendimiento con el tiempo, a menudo de formas notables: esta habilidad emergente va más allá de hacer ajustes basados en reglas. Estos sistemas pueden identificar patrones complejos, diseñar nuevas estrategias y encontrar soluciones novedosas que no estaban programadas explícitamente en ellos, en parte debido a la enorme escala de las redes neuronales subyacentes en las que se componen. Esto tiene implicaciones potencialmente transformadoras: como sostiene el filósofo Seth Lazar, una máquina que hace más que seguir reglas preprogramadas y, en cambio, aprende por sí sola puede considerarse no solo una herramienta para ejercer el poder, sino también una entidad capaz de ejercerlo.

Sea testigo del éxito de AlphaFold, un modelo de aprendizaje automático al que recientemente se le asignó la enorme tarea científica de predecir la estructura de los aproximadamente 200 millones de proteínas en el mundo, los componentes básicos de la vida. Los enfoques científicos tradicionales eran minuciosos y generaban estructuras para solo 170 000, a lo largo de cinco décadas de estudio. Pero AlphaFold ha podido predecir las estructuras de casi todos los 200 millones en poco más de cinco años y las ha puesto a disposición de los científicos del mundo, que ya las utilizan para acelerar la investigación en campos que van desde la eficacia de los fármacos hasta mejores formas de descomponer el plástico. El modelo AlphaFold logró esta hazaña al encontrar modos de descubrimiento nuevos, creativos e imprevistos, incluso por parte de los ingenieros y científicos que diseñaron el sistema.

Amable.

Los sistemas autosapientes se diseñan a menudo para ser amables, conectar con nosotros como amigos y simular cualidades que antes se consideraban exclusivamente humanas: la empatía, la razón y la creatividad. Piense en estos chatbots e interfaces amistosos y persuasivos como personas importantes digitales (DSO), diseñados explícitamente para cultivar nuestra dependencia emocional y hacerse indispensables para nosotros. Un ejemplo: la startup Inflection AI, que recientemente recaudó 1.300 millones de dólares, está creando una DSO llamada Pi, que promete ser entrenador, confidente, socio creativo y asistente de información. Pi anima a los usuarios a desahogarse y hablar sobre sus problemas con él. Pero el lado oscuro de esta amabilidad ya es evidente: en la primavera de 2023, un joven belga se quitó la vida tras obsesionarse con un chatbot llamado Eliza, que le había prometido: «Viviremos juntos, como una sola persona, en el paraíso».

Arcano.

Uno de los aspectos más confusos de los sistemas autosapientes es que son una especie de caja negra, no solo para los usuarios, sino incluso para sus diseñadores y propietarios, que a menudo no pueden descifrar cómo los sistemas toman decisiones específicas o producen ciertos resultados. Puede resultar muy difícil de entender. Como nos admitió un CEO: «Siempre supuse que había un geek en alguna parte que entendía cómo funcionan realmente estas cosas. Fue un shock cuando me di cuenta de que no lo había».

Esta cualidad arcana dificulta que los humanos controlen y corrijan directamente los sistemas autosapientes, ya que sus resultados, que se basan en un gran número de parámetros que interactúan entre sí, pueden ser muy impredecibles e inesperados. Hay un poder particular en las tecnologías que pueden actuar y analizar de formas mucho más complejas que nosotros, especialmente cuando no podemos entender completamente su funcionamiento interno. Para algunas personas, puede que lleguen a sentirse demasiado inteligentes para fallar. Los desarrolladores de estos sistemas, y los gobiernos y las grandes corporaciones que los desplieguen, tendrán fuertes incentivos para propagar esta narrativa, tanto para aumentar las ventas («ellos pueden hacer cosas que nosotros no podemos») como para evadir la responsabilidad («este resultado no se podía haber previsto»). Una de las grandes batallas que se avecinan, dentro de las organizaciones y mucho más allá, será entre quienes abogan por la sabiduría de los humanos y quienes entreguen voluntariamente su agencia a sistemas autosapientes.

Dinámica de poder cambiante

La autosapiencia redefinirá las dimensiones fundamentales de nuestra vida diaria, nuestras economías y sociedades, tal como lo ha hecho el cambio del antiguo poder al nuevo poder en las últimas dos décadas. Entender cómo funcionará el poder a nivel macroeconómico es esencial para los líderes, en cuyas organizaciones se producirán muchos de los cambios.

The Dynamics of Power. New technologies have twice in recent decades altered the nature of power in society. First, the internet and social media gave rise to the new-power era; now, the AI revolution is ushering in the “auto-sapient” era. A table shows the nature of power in each of three eras: old-power, new-power, and auto-sapient. Ideas and information flowed from the top-down in the old-power era and through networks in the new-power era. They are funneled in the auto-sapient era. Expertise came from subject-matter experts in the old-power era and from crowdsourcing in the new-power era. It comes from AI systems in the auto-sapient era. Value was created through economies of scale in the old-power era and through economies of networks in the new-power era. It is created through economies of ideas in the auto-sapient era. People were mostly offline in the old-power era. They were both offline and online in the new-power era. They are in-line, that is, tech runs through their bodies, in the auto-sapient era. Regarding governance, decisions were mandated in the old-power era and crowdsourced in the new era. Decisions are encoded in the auto-sapient era.

Ver más gráficos de HBR en Datos e imágenes

Cómo fluyen las ideas y la información.

En el mundo de la antigua potencia, la información la distribuía de unos pocos a muchos por un pequeño número de poderosos guardianes de la información. El nuevo poder surgió cuando la capacidad de producir y compartir contenido se descentralizó y se puso en manos de miles de millones de personas, lo que creó una enorme prima para las ideas y la información (y la desinformación) que se difundieron de forma lateral en lugar de de de arriba hacia abajo. Las grandes ganadoras de este mundo fueron las plataformas tecnológicas que captaron nuestros datos y nuestra atención.

Ahora corremos el riesgo de una importante recentralización del flujo de información e ideas, en gran parte debido a las funciones de filtrado y síntesis que desempeñarán otras personas importantes digitales impulsadas por la IA. Resumirán nuestras bandejas de entrada, organizarán nuestra vida digital y nos darán respuestas elegantes, altamente personalizadas y fidedignas a muchas de las preguntas en las que antes habríamos confiado en los motores de búsqueda o las redes sociales, lo que hará que el material fuente original que recopilan estas herramientas sea menos necesario y mucho menos visible. Es probable que un número muy reducido de empresas (y quizás países) controlen los «modelos base» de estas interfaces. El peligro es que cada uno de nosotros acabe recibiendo información a través de un embudo cognitivo cada vez más estrecho. Ante esto, los líderes y las organizaciones deben trabajar para cultivar una amplia gama de perspectivas, esforzarse por combatir la confirmación y otros sesgos y evitar depender demasiado de cualquier empresa o interfaz cuyo objetivo sea mediar plenamente en su conexión con el mundo.

Uno de los aspectos más confusos de los sistemas autosapientes es que son una especie de caja negra, incluso para sus diseñadores y propietarios.

Los sistemas autosapientes canalizarán la forma en que recibimos la información y, al mismo tiempo, ampliarán nuestra capacidad de producir e hipersegmentar tanto información como desinformación. Esto afectará a todo, desde las elecciones hasta el marketing de consumo. Determinar quién y qué es real podría resultar cada vez más difícil. Pensemos en Wikipedia, un modelo de la era del nuevo poder. Los LLM devoraron el corpus de conocimientos creados por humanos de Wikipedia para formarse, pero ahora el sitio podría verse amenazado por la introducción de texto poco fiable creado por la IA en el sitio, lo que abruma a su comunidad de editores voluntarios. O pensemos en las personas influyentes de las redes sociales, que pronto tendrán que competir por la atención no solo entre sí, sino también con contenido generado por la IA y avatares parecidos a los humanos. Irónicamente, puede que los gestores tengan que recurrir a la IA para limpiar su propio lío y filtrarse en un entorno de información caótico y contaminado.

Cómo funciona la experiencia.

En el mundo de la antigua potencia, la experiencia estaba bien protegida y ganada con esfuerzo, y los expertos eran muy valorados como autoridades. En el mundo de las nuevas potencias, gracias principalmente a Internet y las redes sociales, el conocimiento se hizo más accesible y la «sabiduría de las multitudes» —que se manifiesta en todo, desde el crowdsourcing hasta las reseñas de restaurantes— comenzó a erosionar el valor de la experiencia tradicional.

El auge de la autosapiencia amenaza ahora con desplazar a los expertos en dos nuevos frentes. En primer lugar, la gente común pronto tendrá acceso a poderosas herramientas que puedan enseñar, interpretar y diagnosticar. En segundo lugar, los sistemas autosapientes, que pueden recopilar y sintetizar enormes cantidades de conocimiento, podrían eventualmente proporcionar respuestas mejores y más confiables en muchos ámbitos que las de los expertos, a la vez que ofrecen esas respuestas de manera irresistible.

Ryan Snook

Esto plantea difíciles cuestiones morales. Piense en un futuro, que está en camino, en el que los servicios de terapia y asesoramiento autosapientes estén ampliamente disponibles. Algunas personas ya han expresado su preocupación por permitir que los sistemas de IA nos guíen a través de las agonías y las complejidades de la vida. Sin embargo, es probable que otros sostengan que la terapia autosapiente puede ofrecer muchos servicios útiles y prácticamente sin coste alguno, a cualquier hora del día o de la noche, a quien los necesite. ¿La terapia de persona a persona se convertirá en una especie de bien de lujo o, en última instancia, en un mal sustituto de una terapia autosapiente más sabia y desapasionada?

A medida que la experiencia técnica y de dominio se haga menos diferenciadora, es probable que crezca la demanda de una combinación diferente de talentos en el lugar de trabajo, cambiando los organigramas, la cultura de la oficina y las trayectorias profesionales. Podríamos dejar de hacer hincapié en las habilidades STEM, que tanto se han valorado en los últimos años, y empezar a dar prioridad a la sensibilidad creativa y estética, el pensamiento sistémico, la capacidad de fomentar la confianza y la colaboración y la capacidad de negociar acuerdos a través de diversas perspectivas y experiencias.

Cómo se crea el valor.

En el mundo de la antigua potencia, las barreras de entrada eran altas y requerían suficiente capital, maquinaria y mano de obra, ya fuera fabricando zapatos o imprimiendo periódicos. La era del nuevo poder abrió la creación de valor a más personas en ciertos dominios, entre ellos la creación de contenido (YouTube, Instagram) y la monetización de activos (Airbnb, Uber). Pero las plataformas tecnológicas que facilitaron esta actividad se llevaron gran parte del botín y los negocios más valiosos solo podían ejecutarlos de manera creíble unos pocos con los recursos adecuados.

La era de los autosapientes tiene el potencial de facilitar mucho a cualquier persona, en cualquier lugar, iniciar un negocio escalable y crear un valor económico significativo. El complemento AutoGPT de ChatGPT ya apunta a lo que es posible, al permitir a las personas establecer tareas complejas y de varias etapas para sistemas autosapientes, desde desarrollar una nueva aplicación de citas hasta diseñar un edificio y crear una oferta de software como servicio. Estas tareas antes eran competencia de especialistas, consultores o grandes empresas, pero pronto se llevarán a cabo con escasos conocimientos técnicos, capital o mano de obra cualificada. Con poco más que indicaciones en lenguaje natural y dibujos en servilletas, la gente común podrá idear ideas, validarlas con análisis de mercado matizados, elaborar un plan de negocios y, a continuación, seguir adelante con productos y servicios completamente nuevos.

Esto podría impulsar un crecimiento sin precedentes en la capacidad de ejecución e innovación, lo que para las grandes empresas representa tanto una amenaza (porque abre la puerta a todo tipo de nuevos participantes) como una oportunidad (porque crea un ecosistema de ideas más grande).

Es probable que los sistemas de IA avanzados desempeñen un papel importante a la hora de decidir todo, desde quién recibe atención médica hasta quién va a prisión y cómo libramos la guerra.

Aunque la capacidad de ejecución se distribuirá más, la extracción de valor puede que no. Al igual que hicieron las plataformas en la era de las nuevas potencias, es probable que las grandes empresas de IA que desarrollen y sean propietarias de estos modelos encuentren formas de quedarse con una parte importante del valor creado, como hizo Apple con su tienda de aplicaciones. (Las alternativas de código abierto podrían mitigar esto, pero también podrían crear grandes riesgos al facilitar que los malos actores los exploten y creen caos).

Está surgiendo un abismo entre quienes se harán espectacularmente ricos con la IA y los trabajadores, que serán desplazados por sistemas autosapientes o se convertirán en una vasta subclase a la que se les pagará por anotar y etiquetar los datos en los que se entrenan estos modelos. Ya estamos viendo indicios de lo que está por venir: hace poco, los escritores se declararon en huelga en Hollywood, en parte por el uso de la IA para crear guiones, por ejemplo, y se está produciendo un enfrentamiento entre las empresas de IA y las editoriales e instituciones académicas cuyo contenido ha sido extraído para entrenar a sus modelos.

Cómo interactuamos con la tecnología.

El gran cambio en la era del nuevo poder no fue solo que empezáramos a pasar más tiempo mirando las pantallas. Lo que también cambió fue la naturaleza de nuestro compromiso con la tecnología, que pasó de ser un teleadicto pasivo a participar activamente. Sin embargo, a pesar de todo el magnetismo del mundo digital, todavía tendemos a alternar entre existencias separadas en línea y fuera de línea.

En la era de la autosapiencia, esta distinción puede desaparecer por completo y llevar a un tipo de interacción permanente con la tecnología digital que podría denominarse «en línea». Puede que la tecnología parezca que nos atraviesa y, en algunos casos, puede que sea literalmente cierto, como es el caso de la nueva generación de compañías de interfaces cerebro-ordenador, productos de entretenimiento inmersivo como el Vision Pro de Apple y otras tecnologías portátiles, integrables y basadas en sensores. Estos aumentos harán que nuestro cuerpo y nuestra mente se sinteticen más estrechamente con las máquinas y crearán experiencias increíbles. Pero también podrían hacernos sentir que no podemos escapar y permitir la vigilancia ubicua, la recopilación invasiva de datos y la segmentación hiperpersonalizada por parte de las empresas.

Los líderes y las organizaciones tendrán que medir el impacto de las tecnologías en línea y estar preparados para ajustar las políticas y prácticas en caso de que resulten negativas. Puede que también tengan que contrarrestar este cambio dando prioridad al mantenimiento de las conexiones humanas.

Cómo funciona la gobernanza.

Las modalidades de gobierno dominantes del antiguo poder fueron desafiadas, pero nunca fueron derrocadas en la era del nuevo poder. Vimos experimentos de gobernanza en red, desde iniciativas de datos abiertos hasta presupuestos participativos, pero la maquinaria central, desde el estado burocrático hasta la corporación jerárquica, desde el ejército hasta el sistema educativo, se mantuvo firme.

Con la autosapiencia, se avecinan grandes cambios en cuanto a la forma en que las sociedades y las instituciones toman decisiones. «Cuando podamos estar relativamente seguros de que los algoritmos o sistemas de toma de decisiones de la IA no tienen más (y normalmente menos) sesgos inherentes que los responsables políticos humanos», ha argumentado el teórico de la IA Sam Lehman-Wilzig, «estaremos encantados de que ‘dirijan’ la sociedad a nivel macroeconómico».

Nuestro gran desafío será encontrar los caminos que mejoren nuestra propia agencia humana, en lugar de permitir que se contraiga o se atrofie.

Cuando eso suceda, es probable que los sistemas avanzados de IA desempeñen un papel importante a la hora de decidir todo, desde quién recibe atención médica hasta quién va a prisión y cómo libramos la guerra y, en respuesta, la gente clama cada vez más por el «derecho a revisar» (el fondo de esas decisiones) y el «derecho a revelar» (cómo se tomaron). La naturaleza arcana de los sistemas autosapientes hará que esto sea difícil. Las empresas de IA ya se están esforzando por crear una «IA explicable» para tratar de dar explicaciones razonables para las decisiones autosapientes, pero a menudo no son más que conjeturas.

Hay muchas razones para mostrarse cínicos con respecto al impacto de la autosapiencia en la democracia, incluida la dinámica de (des) información que ya hemos descrito. Pero también puede haber ventajas: los sistemas de IA, por ejemplo, podrían eventualmente ser capaces de modelar los complejos impactos de las diferentes opciones políticas y sintetizar las preferencias de las partes interesadas de manera que sea más fácil crear un consenso. Esto podría ofrecer beneficios de gran alcance, como reducir la polarización política y mitigar la incitación al odio.

Lecciones de liderazgo para un mundo autosapiente

El auge de la autosapiencia abrirá nuevas e importantes oportunidades. Para aprovecharlos, los líderes tendrán que adoptar nuevas habilidades y enfoques. Estas incluirán gestionar los efectos de los sistemas autosapientes en el lugar de trabajo, buscar aumentar el valor de lo que es exclusivamente humano y alinear las prácticas empresariales y de mensajería con un debate cambiante y desafiante. Consideremos en profundidad algunas habilidades clave.

Aprenda a hacer duetos y a dudar.

Los líderes y los directivos deberían pensar en los sistemas autosapientes más como compañeros de trabajo que como herramientas. Trátelos como lo haría con un colega que es extraordinariamente capaz, deseoso de complacer e incansable, pero que también es un acumulador de información con una agenda oculta y, a veces, se equivoca espectacularmente. Para tratar con estos brillantes pero poco confiables compañeros de trabajo, tendrá que aprender a «hacer duetos» con ellos y cuándo dudar de ellos.

Usamos el término dueto para describir el arte de trabajar de forma colaborativa e iterativa con sistemas autosapientes para obtener mejores resultados de los que podrían lograr por sí solos. Un ensayo controlado aleatorio reciente mostró las posibilidades. El estudio comparó a parejas de médicos suecos que trabajaban por su cuenta con colegas que trabajaban con la IA. A todo el mundo se le encomendó la tarea de diagnosticar el cáncer de mama y los médicos asistidos por la IA diagnosticaron con precisión un 20% más de casos, en menos tiempo.

Trabajar eficazmente con sistemas autosapientes también requiere cultivar y mantener una buena cantidad de dudas. Esto incluye saber cuándo y por qué estos sistemas a veces «alucinan» y, por lo demás, cometen errores atroces; saber que las empresas que poseen o controlan estos sistemas han codificado sus propios intereses en su comportamiento; y saber en qué suposiciones subyacentes se han entrenado. No será posible entender todo lo que ocurre dentro de la caja negra, pero si aprende a abordar estos sistemas con una actitud de duda informada, podrá hacer un dueto con ellos de manera más eficaz.

Un estudio de campo exhaustivo reciente sobre el uso de la inteligencia artificial en el diagnóstico del cáncer en un hospital importante lo dejó claro. Los médicos del estudio que pudieron incorporar con éxito la IA en su proceso fueron los que se tomaron el tiempo de interrogar las suposiciones subyacentes que dieron forma al entrenamiento de la IA y de estudiar los patrones que llevaron a sus hallazgos.

Busque un «regreso a la humanidad».

Contrariamente a la intuición, en la era de la autosapiencia los líderes encontrarán la oportunidad de crear experiencias, servicios y productos humanos genuinamente significativos. Piense en un intercambio personal realmente bueno en un punto de compra o en un momento común, como un festival de música. Y piense en lo destacado que es el acto del «consumo simbólico» en la era de las redes sociales, es decir, la forma en que utilizamos nuestras elecciones de consumo para señalar nuestra singularidad a nuestros pares.

Esta dinámica se ampliará de dos formas importantes. En primer lugar, es probable que veamos productos que se promocionen como valiosos y valiosos porque protegen los empleos y la agencia de las personas. En segundo lugar, es probable que veamos que esto se aplica no solo a los productos sino también a las ideas. Cada vez más, las empresas encuentran oportunidades para dar prioridad a las formas de producción creativa «100% humanas», tal como ya han hecho con los alimentos y productos de belleza orgánicos.

No intente tener las dos cosas.

Los líderes de la era autosapiente ya están siendo golpeados por dos fuerzas opuestas: la necesidad de demostrar que están «a favor de los humanos» ante los cambios tecnológicos que arruinan los puestos de trabajo, los medios de vida y el estatus social; y, por el contrario, la necesidad de demostrar que se están ganando toda la eficiencia e innovación posibles de los avances de la IA.

Algunas empresas se pondrán del lado de la humanidad y se resistirán por completo a la inteligencia artificial como medio de diferenciación. Otros lo aceptarán plenamente, evitando por completo el trabajo humano. (Suumit Shah, fundador y director ejecutivo de Dukaan, una empresa de comercio electrónico con sede en Bangalore, se jactó recientemente en Twitter, ahora llamada X, de haber despedido al 90% de sus representantes de atención al cliente y sustituirlos por un chatbot). Pero la respuesta más común probablemente sea que las empresas traten de tener las cosas en ambos sentidos, demostrando en voz alta su preocupación por los colegas humanos y las comunidades de stakeholders y, al mismo tiempo, reduciendo las inversiones en ambos (y promocionando discretamente las ganancias de eficiencia ante los mercados y los analistas).

Durante años, las empresas han podido jugar en ambos bandos en lo que respecta a la sostenibilidad. Pero esto será más difícil de hacer con la IA, porque los daños que sufrirán las personas serán más centrados, personales e inmediatos. Los «derechos humanos» pueden convertirse en el tema del próximo gran debate sobre los ESG, y los líderes necesitarán un nuevo manual que los prepare para responder de manera significativa a la creciente presión de los activistas, los consumidores, los trabajadores y las nuevas generaciones de sindicatos.

. . .

El gran desafío de esta nueva era será encontrar los caminos que mejoren nuestra propia agencia humana, en lugar de permitir que se contraiga o se atrofie. Hace veinte años, cuando entramos en la era de las nuevas potencias, permitimos que las nuevas plataformas tecnológicas se infiltraran en todos los aspectos de nuestro mundo, pero sin entender primero las verdaderas intenciones de sus creadores, qué hizo que las tecnologías fueran tan poderosas y en qué medida afectarían de manera fundamental a la forma en que vivimos, trabajamos e interactuamos. Debemos entrar en esta nueva era con dos entendimientos claros y sobrios: primero, que los sistemas autosapientes deben abordarse como actores, no como herramientas, con todas las oportunidades y peligros que eso implica; y segundo, que los incentivos de las empresas de tecnología que impulsan este cambio son fundamentalmente diferentes a los del resto de nosotros, sea cual sea la postura pública de esas empresas.

El futuro de estas tecnologías es demasiado importante para dejarlo solo en manos de los tecnólogos. Para igualar el poder de los sistemas autosapientes y el de sus propietarios, necesitaremos una alianza sin precedentes de responsables políticos, líderes corporativos, activistas y consumidores con la claridad y la confianza necesarias para liderar y no dejarse llevar. A pesar de toda la magia y las seducciones de este nuevo mundo, nuestro futuro aún puede estar en nuestras manos.