¿Es la IA la herramienta adecuada para resolver ese problema?
por Paolo Cervini, Chiara Farronato, Pushmeet Kohli, Marshall W. Van Alstyne

La inteligencia artificial ha experimentado un notable auge, cautivando por igual a investigadores, equipos de producto y usuarios finales con su potencial transformador. Pero a pesar de su reciente popularidad, la IA sólo tiene éxito en la resolución de problemas con características muy específicas. En este artículo, ofrecemos una guía para ayudar a las organizaciones a identificar los problemas adecuados que deben abordar con la IA, a encontrar soluciones cuando el contexto no se alinea perfectamente con lo que la IA resuelve mejor y, una vez que los proyectos potenciales han superado esos obstáculos, a elegir los que pueden ofrecer los mayores beneficios para la empresa o para la sociedad en general.
Utilizamos ejemplos de Google DeepMind, el laboratorio de IA de Alphabet que se esfuerza por resolver problemas del mundo real extremadamente desafiantes. Tres de nosotros (Paolo Cervini, Chiara Farronato y Marshall Van Alstyne) recurrimos a nuestra investigación académica sobre el crecimiento de las plataformas tecnológicas, así como a nuestra experiencia práctica con la innovación de la IA en diversos sectores. Uno de nosotros (Pushmeet Kohli) trabaja en Google DeepMind y tiene experiencia de primera mano con los proyectos que se comentan en este artículo.
Lo que sigue no pretende ser una lista exhaustiva de todos los criterios, sobre todo teniendo en cuenta que éstos pueden variar según las aplicaciones; es más bien un esfuerzo por destacar los más sobresalientes.
¿Puede la IA resolver este problema?
La capacidad de la IA para resolver problemas complejos depende de varios factores que pueden potenciar o dificultar su eficacia. Entre las consideraciones más críticas están la disponibilidad de datos de alta calidad, el alcance de las posibles soluciones al problema, la claridad del objetivo que se quiere alcanzar y la necesidad de adaptarse a sistemas en constante cambio. Cuando estos elementos faltan o están mal definidos, plantean retos que requieren enfoques innovadores para superarlos. He aquí los remedios a aplicar cuando se presentan estos cuatro retos.
1. Escasez de datos de alta calidad
Los datos son la entrada más crucial de cualquier modelo de IA, pero con demasiada frecuencia se presta mucha más atención al tamaño de los datos que a su calidad. Aunque las tendencias actuales con los grandes modelos lingüísticos (LLM) sugieren que una cantidad cada vez mayor de datos es la clave para obtener modelos y resultados de mayor calidad, sigue siendo una cuestión de investigación abierta si esto seguirá siendo cierto.
Lo que sí se ha demostrado es que los datos de alta calidad son tanto o más importantes que las grandes cantidades de datos. En ciertos casos, si se dispone de un conjunto de datos relativamente pequeño pero de gran calidad como punto de partida, se puede aumentar cuidadosamente el número de puntos de datos generando datos sintéticos.
Esta fue la situación a la que se enfrentó inicialmente el equipo que trabajaba en AlphaFold. AlphaFold es la revolucionaria tecnología de Google DeepMind que puede predecir con precisión las formas tridimensionales de las estructuras de las proteínas y está acelerando la investigación en casi todos los aspectos de la biología.
Durante la fase inicial de desarrollo de AlphaFold en 2017, el equipo solo disponía de unas 150.000 estructuras de proteínas en 3D como puntos de datos. Esas estructuras habían sido identificadas experimentalmente a lo largo de varias décadas mediante técnicas costosas y lentas, como la cristalografía de rayos X o la criomicroscopía electrónica. (Se tarda aproximadamente un doctorado en explorar empíricamente una sola estructura proteica.) Eso constituía un conjunto de datos minúsculo para los sistemas de aprendizaje automático.
El equipo de investigación, sin embargo, fue capaz de aumentar esos datos reales prediciendo estructuras para secuencias de proteínas cuyas estructuras eran desconocidas. Lo hicieron construyendo una versión prototipo de AlphaFold, que era lo suficientemente buena como para generar un millón de predicciones de nuevas proteínas plegadas.
A continuación, el equipo utilizó esta versión de AlphaFold para evaluar su propio rendimiento con el fin de calificar su grado de confianza en la precisión de dichas predicciones. Mediante este cuidadoso proceso de autodestilación, el equipo volvió a colocar el 30% de las predicciones con mejores puntuaciones en el conjunto de entrenamiento junto con los datos reales. Esto amplió el conjunto de datos a cerca de medio millón de proteínas plegadas, lo que fue suficiente para entrenar la versión final de AlphaFold.
Tenga en cuenta que, aunque este enfoque funcionó eficazmente en el contexto del plegamiento de proteínas, la generación de datos sintéticos para entrenar modelos debe gestionarse con sumo cuidado porque se corre el riesgo de que el aprendizaje recursivo (es decir, una secuencia de modelos de aprendizaje automático que utilizan las predicciones de iteraciones anteriores del modelo como entradas para iteraciones posteriores) degrade el rendimiento al amplificar los errores e imprecisiones transmitidos por iteraciones anteriores del modelo.
A la inversa, si se empieza con un conjunto de datos muy grande pero de baja calidad, aumentar sintéticamente su calidad sería muy difícil. Los conjuntos de datos raspados de Internet -que pueden incluir todo tipo de información, formatos, idiomas, temas y modalidades- son un ejemplo de conjunto de datos grande pero de baja calidad para muchas aplicaciones. En la mayoría de los casos no merecería la pena intentar mejorar su calidad, ya que el esfuerzo y el tiempo necesarios para hacerlo serían inmensos. Y a menudo puede que ni siquiera haya una “respuesta correcta”: por ejemplo, para decidir qué receta es mejor para crear la pizza perfecta, lo más probable es que la respuesta sea “depende”. Este matiz y la necesidad de contexto hacen que el lenguaje y el conocimiento humano en general sean mucho más difíciles de estructurar objetivamente para crear un conjunto de datos de alta calidad.
2. Demasiadas soluciones potenciales
Cuando un problema tiene demasiadas soluciones posibles, resolverlo mediante métodos de fuerza bruta -probando exhaustivamente todas las combinaciones- resulta poco práctico. Históricamente, este tipo de problemas se han abordado utilizando la heurística: reglas simples diseñadas para proporcionar soluciones que son “suficientemente buenas” para la mayoría de los escenarios, aunque raramente óptimas.
La IA ofrece una alternativa prometedora para manejar la complejidad de los problemas con innumerables soluciones potenciales. Sin embargo, a medida que aumenta el número de soluciones posibles, también lo hace el reto de verificar su calidad. Por ejemplo, los grandes modelos lingüísticos (LLM) destacan por generar resultados creativos y diversos, pero también se enfrentan al problema crítico de “alucinar” información objetivamente incorrecta. Esto disminuye la confianza en su fiabilidad. En consecuencia, el desarrollo de métodos para garantizar que los LLM produzcan soluciones verificablemente correctas se ha convertido en un punto clave para avanzar en sus capacidades.
Una prueba útil es si el LLM puede desarrollar nuevas heurísticas que funcionen mejor que las heurísticas conocidas. En un caso, los investigadores de Google DeepMind han desarrollado un nuevo método denominado búsqueda de funciones (FunSearch) que utiliza los LLM para encontrar soluciones novedosas a problemas de matemáticas e informática. La innovación clave reside en combinar un LLM con un evaluador automatizado. El LLM genera soluciones creativas (algunas de las cuales pueden constituir “alucinaciones”), mientras que el evaluador comprueba la precisión y viabilidad de las soluciones. Este proceso iterativo ayuda a refinar las ideas iniciales hasta convertirlas en soluciones viables.
FunSearch ya ha hecho contribuciones significativas al realizar nuevos descubrimientos matemáticos. Uno de ellos es encontrar nuevas soluciones al “problema del conjunto de tapas”, un rompecabezas matemático de larga tradición que trata de encontrar patrones en tipos especiales de cuadrículas. Otro es el desarrollo de mejores algoritmos, como los algoritmos más eficaces de “empaquetado de contenedores”, que encuentran soluciones para empaquetar eficazmente artículos de distintos tamaños en un número limitado de contenedores de capacidad fija y tienen numerosas aplicaciones prácticas como la optimización del envío de contenedores, la programación de trabajos y la asignación de recursos de centros de datos. En estos casos, FunSearch alterna iterativamente entre el LLM y el evaluador: El LLM propone una solución potencial para asignar artículos a los contenedores, mientras que el evaluador verifica que la solución no utilice más de la capacidad disponible y mejore otras alternativas comúnmente disponibles.
3. La falta de un objetivo claro y medible
Un objetivo, o función de recompensa, es la meta o el resultado que el modelo de IA intenta alcanzar. En otras palabras, se trata de plantear al sistema la pregunta correcta. Formular lo que quiere que haga el modelo es una de las partes más difíciles de cualquier sistema de aprendizaje automático. Tomemos como ejemplo los juegos, como el ajedrez o el Go. Los juegos tienen un objetivo claro y medible, como una puntuación o un conjunto de reglas para determinar el ganador, y las iteraciones sin coste hacen que la IA aprenda rápido.
Pero en el mundo real, que a menudo es complejo y desordenado, no existe una métrica directa que podamos utilizar para medir el progreso. Sin un objetivo claro y medible, puede resultar difícil definir qué es “bueno” para el modelo. Cuanto más ambiguo sea el objetivo, peor funcionará el modelo.
Volviendo al ejemplo de AlphaFold, los pliegues de proteínas en biología tienen objetivos claros y mensurables. El objetivo de AlphaFold era minimizar la diferencia entre la estructura 3D de la proteína plegada determinada experimentalmente y la predicción computacional 3D. Una buena forma de medir el éxito fue la competición bianual Evaluación Crítica de la Predicción de Estructuras (CASP). Este evento es parecido a las Olimpiadas del plegamiento de proteínas porque reúne a los mejores equipos de todo el mundo para comparar los métodos computacionales de predicción de estructuras proteicas. Participar en esta competición permitió al equipo de investigación obtener una “puntuación” objetiva del rendimiento de su modelo en términos absolutos y en relación con los equipos competidores.
Definir el objetivo adecuado para los sistemas de IA puede ser un reto, especialmente en contextos como las redes sociales, donde métricas como el compromiso se utilizan a menudo como indicadores del éxito. Aunque la optimización de la participación -medida a través de los “me gusta”, “compartir”, “comentarios” o el tiempo de permanencia en la plataforma- puede impulsar la actividad de los usuarios y los ingresos, también puede acarrear consecuencias no deseadas. Por ejemplo, puede amplificar contenidos polarizadores o sensacionalistas, difundir información errónea, fomentar comportamientos adictivos o desajustarse con el bienestar a largo plazo de los usuarios.
Estos escollos ponen de relieve la importancia de diseñar marcos de optimización multiobjetivo que equilibren el compromiso con otras métricas críticas, como la precisión del contenido, la diversidad de puntos de vista y la satisfacción del usuario. La incorporación de la opinión humana, los guardarraíles éticos y unos criterios de evaluación más amplios, más allá de las simples métricas de compromiso, pueden ayudar a garantizar que los sistemas de IA logren resultados significativos y sostenibles, evitando al mismo tiempo los perjuicios.
4. Cuando lo “bueno” no se puede codificar
Los problemas a los que se enfrentan las organizaciones rara vez son estáticos. Combinada con la dificultad comentada anteriormente de identificar fácilmente si una solución propuesta es buena, la IA corre el riesgo de ofrecer soluciones que se desvíen progresivamente de la respuesta óptima. Una técnica para superar este reto que se está adoptando cada vez más es el aprendizaje por refuerzo con retroalimentación humana (RLHF).
Esta técnica human-in-the-loop permite que el modelo aprenda de los datos e incorpore percepciones humanas ajenas a ellos. El RLHF es especialmente útil en situaciones en las que es difícil codificar una solución algorítmica clara, pero en las que los humanos pueden juzgar intuitivamente la calidad del resultado del modelo.
La reciente colaboración de Google DeepMind con el equipo de YouTube Shorts es un buen ejemplo de cómo RLHF ayuda a mejorar el resultado. Por su naturaleza, los cortos suelen producirse con rapidez, y los creadores a menudo sólo añaden una información mínima al título o la descripción del vídeo. Esto puede dificultar que los espectadores encuentren los cortos que buscan. (Aquí tiene un breve vídeo que explica cómo funciona esto).
Generar descripciones de vídeo precisas era un problema perfecto para que lo resolviera la IA generativa: Cada vídeo es único, y las descripciones genéricas generadas mediante heurística sólo podían servir para categorizar los vídeos a grandes rasgos (por ejemplo, es un vídeo de deportes o de jardinería), pero son insuficientes para permitir descubrir los vídeos de forma individual. Para ello, las descripciones detalladas y adaptadas individualmente a cada vídeo concreto son el requisito previo para que los espectadores encuentren lo que buscan.
Los humanos son muy buenos a la hora de decir instintivamente cuál es una “buena” descripción de un vídeo de YouTube, mientras que los ordenadores han tenido históricamente dificultades para hacerlo, ya que es difícil codificar qué aspecto tiene lo “bueno” para cada vídeo. Al proporcionar retroalimentación humana directa a la salida de la última generación de un modelo como entrada a la siguiente generación, el modelo aprende intuitivamente, mediante ensayo y error, los marcadores de una buena descripción y cómo optimizarla. La capacidad del modelo para aprender de la nueva información y adaptarse a ella permite que el modelo siga mejorando y cambiando a medida que los hábitos y las normas evolucionan a lo largo de las iteraciones.
Google DeepMind y el equipo de productos de YouTube colaboraron para implantar un modelo generativo de IA capaz de generar descripciones de texto de cada vídeo, que se almacenan en los sistemas de YouTube para ofrecer mejores resultados de búsqueda a los usuarios. Esta solución se aplica ahora a todos los nuevos cortos subidos a YouTube.
¿Qué oportunidades debemos perseguir?
Las empresas pueden utilizar los criterios descritos anteriormente para ayudarles a identificar los problemas que están listos para que la IA los resuelva. A continuación, el reto se convierte en elegir entre la gran cantidad de oportunidades de aplicación potenciales que cumplen estos criterios. Dar prioridad a las aplicaciones de la IA en función del impacto y la amplitud de la solución es útil no sólo para Google, sino también para la sociedad en general.
El equipo de Google DeepMind llama a esto el enfoque del “problema del nodo raíz”. Imagine todo el conocimiento del mundo como un inmenso árbol, con las ramas representando diferentes campos. En este árbol, cada “nodo” es un punto de conexión, como un peldaño que conduce a otras ramas. El nodo raíz es el punto de partida del árbol, el origen a partir del cual crece todo lo demás. Si se resuelve un problema del nodo raíz, se ramifican áreas de estudio y comprensión totalmente nuevas, que abren entonces vías de exploración y aplicaciones aún por descubrir.
El proyecto AlphaFold se ajusta bien a este criterio, ya que resolver el gran reto del plegamiento de proteínas no sólo puede desbloquear avances en el descubrimiento de mejores fármacos, como vacunas contra la malaria y tratamientos contra el cáncer, sino que también puede facilitar desarrollos en otros campos, como el desarrollo de enzimas devoradoras de plástico para hacer frente a la contaminación.
Tras la publicación de AlphaFold, Andrei Lupas, biólogo evolutivo del Instituto Max Planck de Biología del Desarrollo, escribió en Nature: “Esto cambiará la medicina. Cambiará la investigación. Cambiará la bioingeniería. Lo cambiará todo”. En 2024, el Comité del Premio Nobel reconoció la inmensa contribución concediendo el Premio Nobel de Química a Demis Hassabis y John Jumper por su desarrollo de AlphaFold.
Para identificar este tipo de problemas del nodo raíz, las empresas deben orquestar debates entre los expertos en IA y los de otros campos. Desde sus inicios, Google DeepMind se propuso aplicar este enfoque. Ha contratado a propósito a talentos de un gran número de disciplinas además del aprendizaje automático; sus campos incluyen la bioquímica, la física, la filosofía y la ética. Esta diversidad de conocimientos puede fomentar que las ideas de distintas disciplinas reboten entre sí y encuentren nuevas formas de ver los problemas.
Más allá de los recursos internos de Google DeepMind, la polinización cruzada de ideas se produce a través de interacciones constantes con otros equipos de investigación, equipos de productos de Google, a veces de otras empresas de Alphabet, y la comunidad investigadora en general. El equipo de Google DeepMind intenta crear oportunidades para facilitar estas interacciones, por ejemplo, organizando eventos en los que diversos equipos se reúnen para presentar y compartir su trabajo y debatir sobre los retos y las oportunidades en un entorno que fomenta nuevas conexiones y suscita conversaciones reflexivas. También apoya y participa en eventos externos como conferencias de investigación y charlas universitarias.
Iterar en la innovación
Una vez que una organización ha identificado los problemas del nodo raíz, los equipos de producto seleccionan estratégicamente qué despliegues de IA perseguir y, a continuación, se embarcan en un viaje hacia la productización.
Al hacer esto, la productización debe evitar dos riesgos. El primer riesgo es centrarse sólo en los problemas de raíz para los que la empresa ya tiene una línea de visión clara de las áreas de producto que está preparada para abordar. Este enfoque dejaría escapar grandes oportunidades, como ilustra la propia AlphaFold. Cuando se lanzó por primera vez en 2020, AlphaFold no contaba con un equipo de producto adecuado dentro de Google que pudiera utilizar de forma productiva los resultados de sus investigaciones, como nuevos compuestos farmacológicos. En respuesta, Alphabet creó una “apuesta”, llamada Isomorphic Labs, cuyo objetivo exclusivo era utilizar la IA para el descubrimiento de fármacos. Los nuevos proyectos de producción podrÃan ser de propiedad exclusiva o asociaciones estratégicas. La cuestión es que la fundación de Isomorphic Labs consolidó las unidades de investigación y de producto en una nueva empresa capaz de facilitar iteraciones rápidas entre ambas.
[
Insight Center Collection
Collaborating with AI
How humans and machines can best work together.
](/insight-center/collaborating-with-ai)
El segundo riesgo es suponer que podemos predecir cómo evolucionará una tecnología y prever los casos de uso. En lugar de seguir un camino determinista, las empresas que utilizan la IA deberían permitir la opcionalidad. Deberían abrazar la incertidumbre y permitir que las soluciones de IA evolucionen continuamente y respondan al progreso tecnológico y a las aplicaciones de los usuarios, asegurándose de recabar opiniones por el camino.
Ítaca -una herramienta de IA que Google DeepMind desarrolló para restaurar y comprender textos griegos antiguos, a menudo incompletos- es un buen ejemplo. Inicialmente, el equipo la había desarrollado pensando en epigrafistas, arqueólogos e historiadores como usuarios principales. Sin embargo, un par de meses después del lanzamiento de Ítaca, el equipo de Google DeepMind se enteró de un nuevo y sorprendente caso de uso educativo: Los profesores estaban utilizando Ítaca para diseñar un plan de estudios totalmente nuevo con el fin de salvar la brecha entre dos campos de estudio dispares, los estudios clásicos y la informática. Este nuevo plan de estudios enseña a los alumnos a poner en práctica las herramientas de la IA y les muestra cuál es el impacto de estas tecnologías en la vida real.
Un camino equilibrado hacia el futuro
A medida que la IA sigue evolucionando, es crucial que las organizaciones aborden su implantación de forma meditada. Los criterios aquí esbozados ofrecen un marco estratégico para identificar los problemas adecuados que abordar con la IA: problemas que se alinean con los puntos fuertes de la IA y que, si se resuelven, pueden abrir nuevas y sorprendentes vías para la innovación y el impacto. Al centrarse en los problemas del nodo raíz y fomentar las colaboraciones interdisciplinarias, las organizaciones pueden aprovechar eficazmente todo el potencial de la IA para impulsar no sólo el crecimiento empresarial, sino también el progreso de la sociedad.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.