PathMBA Vault

Innovación

Tomar mejores decisiones estratégicas en torno a la tecnología que se desarrolla lentamente

por Tucker J. Marion, David Deeds, John H. Friar

Tomar mejores decisiones estratégicas en torno a la tecnología que se desarrolla lentamente

Los automóviles autónomos pueden parecer una tecnología vanguardista del siglo XXI, un desafío que aún enfrenta obstáculos antes de su adopción generalizada. Pero, de hecho, la conducción autónoma ha estado evolucionando a trompicones durante todo un siglo. Su evolución puede enseñar a los directivos cómo hacer frente a las innovaciones que dependen de múltiples tecnologías de lento desarrollo que se combinan a diferentes velocidades y costes.

En 1925, Ford Motor Company exhibió un vehículo llamado Maravilla estadounidense que condujo por Broadway y por la Quinta Avenida —según se informa, incluso sorteando un atasco— sin nadie en el asiento del conductor. En cambio, el coche era operado remotamente mediante señales de radio que venían de otro vehículo que lo seguía. No era exactamente «conducción autónoma», pero aun así fue un logro notable para esa época.

En 1958, General Motors exhibió un prototipo experimental llamado Firebird III, que incluía un sistema de guía eléctrico que le permitía navegar por una autopista automática mientras el conductor estaba relajado sin tener las manos en el volante. Sin embargo, solo funcionó en un tramo de carretera de un cuarto de milla con circuitos integrados.

Para 2005, cinco vehículos autónomos patrocinados por DARPA lo habían hecho con éxito un campo de 150 millas de largo en el desierto de Mojave. Desde entonces, empresas como Google, Tesla, Apple y muchas empresas emergentes han invertido miles de millones en tecnología de conducción autónoma, pero a pesar de la importante inversión, solo se sigue utilizando a pequeña escala en proyectos piloto en un puñado de ciudades.

¿Por qué hacer que esta tecnología sea viable desde el punto de vista comercial resulta tan difícil?

Un vehículo autónomo se basa en una serie de tecnologías, incluidos los sensores LiDAR, los sensores MEMS (como los acelerómetros), el GPS, las comunicaciones móviles 5G y la inteligencia artificial. Estas tecnologías han madurado a diferentes ritmos y sus trayectorias de costes también han evolucionado a diferentes ritmos.

Pensemos, por ejemplo, en un sistema LiDAR, que proyecta láseres sobre el entorno de un vehículo y los objetos a su paso, mide los reflejos y utiliza las diferencias en los tiempos de retorno y las longitudes de onda para crear representaciones digitales en 3D que determinan las ubicaciones. Hughes Aircraft Company introdujo esta tecnología en 1961 y el Centro Nacional de Investigación Atmosférica fue uno de los primeros en utilizarla para analizar las nubes y la contaminación del aire. Al principio costaban millones, los sistemas LiDAR ahora cuestan entre 100 y 200 dólares. Del mismo modo, las capacidades del GPS, desarrolladas por primera vez en la década de 1980, no estuvieron ampliamente disponibles hasta principios de la década de 2000; a mediados de la década de 2010, se convirtieron en una tecnología basada en chips que cuesta menos de 5 dólares por unidad. En el vertiginoso campo de la inteligencia artificial, las capacidades que permiten a los vehículos autónomos reconocer los obstáculos y tomar decisiones evolucionan mes a mes en cuanto a capacidades y costes. Solo cuando todo el conjunto de tecnologías sea lo suficientemente sólido y asequible, la conducción autónoma podrá cumplir plenamente la promesa que los investigadores han contemplado durante más de 100 años.

Entonces, ¿cómo se las arreglan las empresas cuando un producto imaginario se basa en un grupo de innovaciones que surgen lentamente, un concepto que conocemos como «tecnologías de cocción lenta»? En estas situaciones, cuando el desarrollo de las tecnologías subyacentes sube y baja a lo largo de décadas, rastrearlo y crear una estrategia de I+D en torno a ello (sin invertir demasiado y demasiado pronto) puede suponer un importante desafío.

La mayoría de las empresas no pueden darse el lujo de invertir mucho esfuerzo en tecnologías de rastreo que pueden tardar décadas en ser lo suficientemente eficaces y asequibles como para comercializarlas. Al mismo tiempo, cuando el grupo correcto de tecnologías alcanza la madurez y el coste correctos, pueden resultar extremadamente disruptivos y, dado que a menudo sorprenden a las empresas, su impacto puede ser devastador.

Un ejemplo de ello se ha dado ante nosotros: Internet. La versión académica se publicó en 1969, pero se necesitaron más de dos décadas (y la invención de los protocolos de Internet, el HTML, el navegador web y, finalmente, el acceso de banda ancha) para impulsar el auge de las puntocom y las innumerables innovaciones en las décadas posteriores. Es una innovación que ha revolucionado sectores enteros, y las empresas que se esforzaban por encontrar el momento adecuado para invertir en una estrategia de Internet a menudo no sobrevivían.

Determinar cuándo apostar por las tecnologías emergentes es una ciencia, no un arte. Lo más fundamental que debe hacer un CEO es dejar de pensar en la innovación a través de tecnologías singulares. Aunque muchos ejecutivos no se dan cuenta, las innovaciones que crean nuevas industrias y ecosistemas —o que revolucionan los existentes— suelen estar compuestas de varias tecnologías. En cambio, deberían identificar las distintas ciencias y tecnologías que subyacen a una posible innovación y establecer un proceso de seguimiento y gestión de las mismas a medida que se desarrollan, aunque eso lleve décadas.

Muchas empresas descuidan esto por una creencia simple pero incorrecta: esperar tiene sentido. La opinión predominante es que el mayor número de oportunidades de negocio surgirán después de que las tecnologías se comercialicen, pero antes de que el competidor tenga tiempo de dominar el mercado. Basándonos en nuestra investigación y experiencia profesional, creemos que se trata de un error. Las empresas que lo intentan suelen perder la oportunidad y nunca estarán en condiciones de obtener una ventaja.

Repensar la cartografía tecnológica

Las empresas ya utilizan herramientas sofisticadas para predecir la rapidez con la que una tecnología podría estar lista para su comercialización. Un ejemplo es la creada por la NASA Nivel de preparación tecnológica (TRL); otro es curvas de difusión. Se supone que estas representaciones visuales ayudan a planificar la I+D a largo plazo, a la financiación de la investigación y a la estrategia de fusiones y adquisiciones. Sin embargo, con demasiada frecuencia, estas herramientas se centran en pronosticar las tecnologías individuales más que en el conjunto de innovaciones necesarias para hacer posible algo como la conducción autónoma.

Además, las empresas han confiado en los futuristas, los paneles de expertos y la extrapolación de tendencias para ayudar a planificar la tecnología. Sin embargo, estos métodos pueden verse empañados por obsesiones personales, opiniones y defectos a la hora de evaluar la preparación del mercado. Por encima de todo, la previsión tecnológica convencional no funciona bien cuando las empresas deben hacer frente a las nuevas tecnologías y su interacción.

Tomemos, por ejemplo, algunas de las tecnologías clave del iPhone. Cada uno se desarrolló siguiendo una trayectoria diferente, estuvo disponible a un precio extremadamente alto y se utilizó por primera vez en aplicaciones de vanguardia de la tecnología. Las baterías de iones de litio, las interfaces gráficas de usuario y los circuitos integrados de silicio densamente empaquetados fueron pioneros en la década de 1960. Al final de la década, la NASA se había convertido en el mayor comprador de circuitos integrados, lo que impulsó el crecimiento de empresas como Fairchild Semiconductor y, más tarde, Intel. La consiguiente caída del precio de los microprocesadores de 8 bits llevó al desarrollo de los primeros ordenadores, como el Apple II, lanzado en 1977. De hecho, muchas de las tecnologías que componen un iPhone existían durante 50 años antes de que las capacidades, los tamaños y los costes cayeran lo suficiente como para que Apple las combinara y lanzara el iPhone en 2007.

La forma más eficaz de abordar las innovaciones transformadoras es identificar todas las tecnologías emergentes que podrían afectar a un sector a largo plazo, priorizarlas en términos de sus posibles funciones e impacto y centrarse en las tres o cuatro principales. Eso requerirá hacer un seguimiento de las tendencias de la investigación en las universidades y los centros de estudios; analizar las tendencias de las políticas gubernamentales, el capital riesgo, las fundaciones mundiales y los concursos; el gasto corporativo en I+D y el seguimiento de las convocatorias de propuestas y resultados de los NIH, la NSF y la DARPA. Por ejemplo, DARPA participó activamente en las actividades de vehículos autónomos a principios de la década de 2000, y los fabricantes de automóviles comerciales prestaban mucha atención a los sistemas de visión, el LiDAR, el aprendizaje automático integrado y los primeros programas de IA.

Diseño de la matriz de viabilidad tecnológica

Tras identificar las tecnologías emergentes más prometedoras, las empresas deben hacerse dos preguntas sobre cada una de ellas: ¿Puede funcionar? ¿Y a qué precio? Las respuestas le permitirán crear una matriz de viabilidad tecnológica, un dos por dos que nos resulte útil en nuestra labor de enseñanza y consultoría.

Las tecnologías se dividen en cuatro cuadrantes: disparos a la luna, misión crítica, soluciones mágicas o mercado masivo.

The Technology Feasibility Matrix. This 2 by 2 chart, used to identify promising emergent technologies, identifies four quadrants according to a technology’s unit cost and feasibility. Technology with Low unit cost and low feasibility is a magic bullet innovation and should be embedded in the science to move toward mass market viability. Technology with High unit cost and low feasibility is a moon shot; to move toward the mass market you must find high-cost applications or partner with startups. Technology with High unit cost and high feasibility is mission critical; to move toward the mass market you must build internal capabilities or develop intermediate products. Finally, the lower an innovation’s unit cost and the higher its feasibility, the more it is situated in mass market viability. Source: Tucker J. Marion, David Deeds, and John H. Friar.

Ver más gráficos de HBR en Datos e imágenes

El desafío de gestionar las innovaciones transformadoras se agrava cuando las tecnologías subyacentes caen en diferentes cuadrantes en un momento dado. En el caso de los automóviles autónomos, por ejemplo, desarrollar la inteligencia artificial que pueda conducir un vehículo sigue siendo una oportunidad, mientras que las comunicaciones móviles 5G de coche a coche son factibles, pero requieren una inversión intensiva debido a la infraestructura que hay que crear, por lo que es de misión crítica.

Eso nos lleva a la siguiente dimensión del problema: ¿cuándo es probable que se unan las tecnologías subyacentes de una innovación transformadora? Aunque encontrar respuestas a esa pregunta puede no ser fácil, tampoco es imposible. La clave, según muestran nuestros estudios, es centrarse en los costes.

Al analizar las inversiones en I+D necesarias para desarrollarlas, los costes de producción de las tecnologías clave y proyectar sus trayectorias futuras lo más lejos posible, es posible entender cómo el coste influirá en la creación de una innovación transformadora. Eso permitirá a los directores ejecutivos determinar con qué tecnologías trabajar y cómo gestionarlas, lo que permitirá centrarse estratégicamente en la I+D.

Siempre pasa mucho tiempo antes de que los costes de todas las tecnologías subyacentes caigan hasta el punto en que las empresas puedan integrarlas en una innovación transformadora que pueda fabricarse a un precio viable. Esto representa un costo convergencia ventana las empresas pueden combinarlos en nuevos productos en un futuro próximo. La capacidad de gestionar la convergencia puede hacer que una empresa triunfe o fracase, por lo que es fundamental hacerlo bien.

Pensemos en Eastman Kodak, que no pudo aprovechar su invención de la fotografía digital ni su tardío avance hacia las cámaras digitales y las plataformas de impresión basadas en la red. Tuvo que declararse en quiebra en 2012, cuando las redes sociales y los teléfonos inteligentes cambiaron por completo la forma en que los usuarios comparten y consumen imágenes. Kodak demuestra que navegar por la ventana de convergencia es fundamental para las empresas tradicionales, tanto al principio como al final del juego, sobre todo porque los retadores utilizarán rápidamente las tecnologías emergentes durante este período. Las empresas emergentes tienden a actuar con rapidez, creando efectos de red en los que el ganador se lo lleva todo antes de que surjan todas las tecnologías que pueden crear un producto o servicio que cambie las reglas del juego.

Las empresas pueden utilizar varios enfoques para gestionar las tecnologías emergentes antes de comercializarlas:

  • Si detectan pronto la ventana de convergencia, tendrán tiempo suficiente para adoptar un enfoque proactivo. Las estrategias proactivas permiten a las empresas dar forma a la trayectoria del desarrollo de tecnologías para que estas últimas satisfagan sus necesidades futuras.
  • Otra estrategia es utilizar productos intermedios para crear activos y refinar las capacidades. Netflix siguió esta estrategia durante 10 años desarrollando su negocio de entrega de DVD mientras Internet de banda ancha maduraba hasta el punto en que el streaming se hizo viable.
  • Por el contrario, las empresas que se aferran a la ventana de convergencia más tarde que sus rivales deben actuar con rapidez para ponerse al día con una estrategia reactiva. Cuando la ventana se reduce, las empresas pueden poner a prueba rápidamente proyectos con competidores avanzados, como hizo Honda recientemente con GM con su Prologue EV. Esto ayuda a las empresas a probar las aplicaciones y las funciones sin comprometer de más recursos a medida que el mercado madura. Con un esfuerzo reactivo, las empresas pueden acceder de primera mano a tecnologías disruptivas asociándose con empresas emergentes. Lo vemos con un crecimiento espectacular en el número de pilotos realizados entre empresas establecidas y empresas de IA.
  • Otra opción es centrarse en los puntos de entrada más caros, como los mercados de lujo o especializados, que pueden mantener una adopción temprana hasta que los costes sigan cayendo, como ocurrió con los vehículos eléctricos de lujo o el uso de circuitos integrados en aplicaciones espaciales y militares en la década de 1960 y principios de la de 1970.

Revisando las estrategias de gestión de la tecnología

Aunque es importante entender el potencial disruptivo de cualquier tecnología nueva, la convergencia de las tecnologías que evolucionan lentamente es un desafío más apremiante en la actualidad. Gestionarlo sin duda requiere una metaestrategia.

Por un lado, los directores ejecutivos no deben comportarse como si solo la función de I+D o TI tuviera que preocuparse por el desafío, sino que deben equipar a todos los niveles de la organización para que desarrollen una comprensión de las tecnologías emergentes. Esto ayuda a la hoja de ruta, la I+D y la planificación de las innovaciones transformadoras. El proceso requerirá la creación de varios modos de investigación y desarrollo, desde crear mejores ecosistemas de innovación hasta observar la cultura tecnológica de la próxima generación.

Los equipos que entienden, desarrollan e implementan estos planes deben superar los límites organizativos. DARPA, por ejemplo, tiene procesos bien perfeccionados para que expertos de la industria, el gobierno y el mundo académico trabajen en proyectos específicos con sus equipos. La polinización cruzada aumenta la calidad del conocimiento y permite a los equipos y funciones de tecnología desarrollar una imagen más completa del futuro.

Ninguna organización puede esperar desarrollar una imagen completa de todas las tecnologías que pueden afectarla o ser capaz de predecir cada descubrimiento científico inesperado. Pero cada organización puede intentar proyectar el futuro, lo que desarrolla una comprensión de las posibilidades del mañana y trabaja a partir de ello para crear líneas de investigación útiles. Por ejemplo, el proyecto Convergent Aeronautics Solutions (CAS) de la NASA trabaja con firmas de diseño, instituciones académicas, empresas, empresas emergentes, capitalistas de riesgo y otros para entender cómo está evolucionando la tecnología de los taxis aéreos, un proceso que denomina cartografía. Está sistematizando el proceso de cartografía para entender mejor y abordar las brechas en las capacidades actuales y futuras.

• • •

Durante la última década, las empresas han empezado a combinar la maquinaria de ingeniería, los sistemas de transporte y las redes físicas generadas por la revolución industrial de los 18 la Siglo con los dispositivos inteligentes, las redes inteligentes y los sistemas expertos posibilitados por la revolución de Internet de los años 20 la Siglo para iniciar una cuarta ola de innovación mundial. En consecuencia, nada da a una empresa una ventaja competitiva sobre sus rivales como la tecnología disruptiva.

Sin embargo, en lugar de simplemente esperar y preocuparse por la disrupción, las empresas, especialmente las líderes del mercado, harían bien en gestionar la dinámica de lo que está demostrando ser una era dorada de cambios y convergencia tecnológicos. Eso requiere invertir tiempo y atención en el rastreo de las tecnologías de cocción lenta.