PathMBA Vault

Innovación

El futuro de la IA se basará en menos datos, no en más

por H. James Wilson, Paul R. Daugherty, Chase Davenport

El futuro de la IA se basará en menos datos, no en más

Yangleephoto/varios bits/Getty Images

Las empresas que estén pensando en invertir en capacidades de IA deben entender primero que, en los próximos cinco años, las aplicaciones y las máquinas serán menos artificiales y más inteligentes. Se basarán menos en los macrodatos de abajo hacia arriba y más en el razonamiento de arriba hacia abajo que se parezca más a la forma en que los humanos abordan los problemas y las tareas. Esta capacidad de razonamiento general permitirá aplicar la IA de manera más amplia que nunca, creando oportunidades para los primeros en adoptarla, incluso en negocios y actividades para las que antes no parecía adecuada.

En el pasado reciente, la IA avanzó a través del aprendizaje profundo y el aprendizaje automático, creando sistemas desde abajo entrenándolos con montañas de datos. Por ejemplo, los vehículos sin conductor están entrenados en tantas situaciones de tráfico como sea posible. Pero estas redes neuronales ávidas de datos, como se las llama, tienen graves limitaciones. Especialmente tienen problemas para gestionar los casos «límite», situaciones en las que hay pocos datos. Un coche sin conductor que pueda gestionar los cruces peatonales, los peatones y el tráfico tiene problemas para procesar anomalías, como los niños vestidos con inusuales disfraces de Halloween, cruzan la calle al anochecer.

Este artículo aparece también en:

Muchos sistemas también se quedan perplejos fácilmente. El sistema de reconocimiento facial del iPhone X no reconoce «Morning Faces»—La mirada hinchada y demacrada del usuario al despertarse por primera vez. Las redes neuronales han derrotado a los campeones del ajedrez y han triunfado en el antiguo juego japonés del Go, pero si ponen una imagen boca abajo o la alteran un poco, es posible que la red la identifique erróneamente. O puede proporcionar identificaciones de «alta confianza» de objetos irreconocibles.

Los sistemas ávidos de datos también se enfrentan a restricciones empresariales y éticas. No todas las empresas tienen el volumen de datos necesario para crear capacidades únicas mediante redes neuronales. El uso de enormes cantidades de datos de los ciudadanos también plantea problemas de privacidad y es probable que conduzcan a más medidas gubernamentales, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que impone requisitos estrictos sobre el uso de los datos personales de las personas. Además, estos sistemas son cajas negras. No está claro cómo utilizan los datos de entrada para llegar a las salidas, como las acciones o las decisiones. Esto los deja expuestos a la manipulación por parte de malos actores (como los rusos en las elecciones presidenciales estadounidenses de 2016), y cuando algo sale embarazosamente mal, las organizaciones tienen dificultades para explicar por qué.

Sin embargo, en el futuro tendremos sistemas de arriba hacia abajo que no requieran tantos datos y que sean más rápidos, flexibles y, como los humanos, más inteligentes de forma innata. Varias empresas y organizaciones ya están poniendo en marcha estos sistemas más naturales. Para elaborar una visión de hacia dónde se dirige la IA en los próximos años y, después, planificar las inversiones y las pruebas en consecuencia, las empresas deben buscar avances en cuatro áreas:

Más eficiente razonamiento robótico. Cuando los robots tienen una comprensión conceptual del mundo, como los humanos, es más fácil enseñarles cosas con muchos menos datos. Vicarious, una empresa emergente de Union City, California, cuyos inversores incluyen a Mark Zuckerberg, Jeff Bezos y Marc Benioff, está trabajando para desarrollar inteligencia general para robots, lo que les permite generalizar a partir de unos pocos ejemplos.

Tenga en cuenta esa mezcla de letras y números que utilizan los sitios web para determinar si es un humano o un robot. Llamado Capitán AS (Pruebas públicas de Turing completamente automatizadas para diferenciar ordenadores de humanos), son fáciles de resolver para los humanos y difíciles para los ordenadores. Basándose en la neurociencia computacional, los investigadores de Vicarious han desarrollado un modelo que puede romper los CAPTCHA a un ritmo mucho mayor que el de las redes neuronales profundas y con una eficiencia de datos 300 veces mayor. Para analizar los CAPTCHA con casi un 67% de precisión, el modelo Vicarious solo requería cinco ejemplos de entrenamiento por personaje, mientras que una red neuronal profunda de última generación requería un conjunto de entrenamiento 50 000 veces mayor de cadenas de CAPTCHA reales. Estos modelos, con su capacidad de entrenar más rápido y generalizar de manera más amplia que los enfoques de IA que se utilizan habitualmente en la actualidad, nos están poniendo en el camino hacia robots que tienen una comprensión conceptual del mundo similar a la humana.

Experiencia preparada**.** Modelando lo que haría un experto humano ante una gran incertidumbre y pocos datos, la inteligencia artificial de arriba hacia abajo puede superar los enfoques ávidos de datos para diseñar y controlar muchos tipos de equipos de fábrica. Siemens utiliza la IA de arriba hacia abajo para controlar el complejo proceso de combustión en las turbinas de gas, en el que el aire y el gas entran en una cámara, se encienden y se queman a temperaturas de hasta 1600 grados Celsius. El volumen de emisiones creado y, en última instancia, el tiempo que la turbina siga funcionando dependen de la interacción de numerosos factores, desde la calidad del gas hasta el flujo de aire y la temperatura interna y externa.

Con métodos de aprendizaje automático de abajo hacia arriba, la turbina de gas tendría que funcionar durante un siglo antes de producir datos suficientes para empezar a entrenarse. En cambio, Investigadores de Siemens Volar Sterzing y Steffen Udluft utilizaron métodos que requerían pocos datos en la fase de aprendizaje de las máquinas. El sistema de monitorización resultante realiza ajustes precisos que optimizan el funcionamiento de las turbinas en términos de emisiones y desgaste, y busca continuamente la mejor solución en tiempo real, como un experto que gira varios botones al mismo tiempo.

Sentido común. Varias organizaciones están trabajando para enseñar a las máquinas a navegar por el mundo con el sentido común: a entender los objetos y las acciones del día a día, a comunicarse de forma natural, a gestionar situaciones imprevistas y a aprender de las experiencias. Pero lo que es natural para los humanos, sin entrenamiento ni datos explícitos, es tremendamente difícil para las máquinas. Dice Oren Etzioni, director ejecutivo del Instituto Allen de Inteligencia Artificial ( AI2), «Ningún sistema de IA desplegado actualmente puede responder de forma fiable a una amplia gama de preguntas sencillas, como: «Si pongo mis calcetines en un cajón, ¿seguirán ahí mañana?» o «¿Cómo puede saber si un cartón de leche está lleno?»

Para ayudar a definir lo que significa que las máquinas tengan sentido común, AI2 está desarrollando un cartera de tareas con lo que se puede medir el progreso. DARPA invertirá 2000 millones de dólares en la investigación de la IA. En su Programa Machine Common Sense (MCS), los investigadores crearán modelos que imiten los dominios principales de la cognición humana, incluidos «los dominios de objetos (física intuitiva), lugares (navegación espacial) y agentes (actores intencionales).» Investigadores en Microsoft y la Universidad McGill han desarrollado conjuntamente un sistema que ha demostrado ser muy prometedor para resolver las ambigüedades en el lenguaje natural, un problema que requiere diversas formas de inferencia y conocimiento.

Hacer mejores apuestas. Los humanos de forma rutinaria, y a menudo sin esfuerzo, clasifican las probabilidades y actúan según las más probables, incluso con relativamente poca experiencia previa. Ahora se enseña a las máquinas a imitar ese razonamiento mediante la aplicación de Procesos gaussianos—modelos probabilísticos que pueden hacer frente a una gran incertidumbre, actuar sobre la base de datos escasos y aprender de la experiencia. Alphabet, la compañía madre de Google, lanzó Proyecto Loon, diseñada para ofrecer servicio de Internet a las regiones desatendidas del mundo a través de un sistema de globos gigantes que flotan en la estratosfera. Sus sistemas de navegación emplean procesos gaussianos para predecir en qué parte de los vientos estratificados y muy variables en lo alto tienen que ir los globos. Luego, cada globo se mueve hacia una capa de viento que sopla en la dirección correcta y se organiza para formar una gran red de comunicación. Los globos no solo pueden hacer predicciones razonablemente precisas analizando los datos de vuelos anteriores, sino también analizar los datos durante un vuelo y ajustar sus predicciones en consecuencia.

Estos procesos gaussianos son muy prometedores. No necesitan grandes cantidades de datos para reconocer los patrones; los cálculos necesarios para la inferencia y el aprendizaje son relativamente fáciles y, si algo sale mal, se puede rastrear su causa, a diferencia de las cajas negras de las redes neuronales.

Aunque todos estos avances son relativamente recientes, se remontan a los inicios de la IA en la década de 1950, cuando varios investigadores empezaron a buscar modelos de arriba hacia abajo para imitar la inteligencia humana. Pero cuando el progreso resultó difícil de alcanzar y se hizo evidente el gran potencial de los métodos de aprendizaje automático de abajo hacia arriba, el enfoque de arriba hacia abajo se abandonó en gran medida. Sin embargo, hoy, gracias a nuevas y poderosas técnicas de investigación y computación, la IA de arriba hacia abajo ha renacido. A medida que su gran promesa comience a cumplirse, las empresas inteligentes pondrán su dinero donde está la mente.