¿Cuándo es Virtual Virtuous?
por Henry Chesbrough, David J. Teece
Outsourcing may make you more flexible. But it could also undermine your ability to innovate.
Los avances en la tecnología de la información han facilitado a las empresas el intercambio de datos y la coordinación de las actividades. Eso ha dado lugar a una visión radicalmente nueva de la organización corporativa, en la que las empresas individuales subcontratan muchas de sus actividades a una serie de socios. Estas empresas virtuales pueden ser más eficientes, pero ¿cuáles son las implicaciones estratégicas más amplias de la subcontratación desenfrenada?
Henry Chesbrough y David Teece dan una nota de cautela. En lo que respecta a la innovación, sostienen que la virtualidad suele hacer más daño que bien. Las asociaciones flexibles de empresas producen inevitablemente más conflictos de intereses que las empresas gestionadas centralmente, y esos conflictos pueden obstaculizar el tipo de innovación compleja y sistemática que crea valiosos avances empresariales. La innovación es una fuerza desestabilizadora y, por lo tanto, las empresas que desconfían de alterar un status quo cómodo se resistirán a ella.
Chesbrough y Teece reconocen que cierto grado de subcontratación puede fomentar la creatividad empresarial y que la virtualidad tiene sentido en determinadas condiciones. Pero afirman que cada empresa necesita adaptar su organización a sus propias operaciones y a sus fuentes únicas de innovación. Seguir ciegamente las modas es una receta para el desastre.
Los defensores de las empresas virtuales instan a los directivos a subcontratar cualquier cosa. En todo el mundo, las empresas se están sumando al tren: descentralizan, reducen su personal y forjan alianzas para perseguir la innovación. ¿Por qué es tan tentadora la idea de la organización virtual? Porque hemos llegado a creer que la burocracia es mala y la flexibilidad es buena. De ello se deduce que una empresa que invierta en lo menos posible responderá mejor a un mercado cambiante y tendrá más probabilidades de lograr una ventaja competitiva mundial.
No cabe duda de que muchas organizaciones grandes y engorrosas han sido superadas por competidores más pequeños y «conectados en red». Pensemos, por ejemplo, en el eclipse de IBM en los ordenadores y de DEC en las estaciones de trabajo. Pero si bien hay muchas empresas virtuales exitosas, hay aún más quiebras que no aparecen en los titulares. Tras muchos años de estudiar la relación entre la organización y la innovación, creemos que las virtudes de ser virtual están sobrevaloradas. La nueva opinión popular ignora el papel distintivo que pueden desempeñar las grandes empresas integradas en el proceso de innovación. Los que se apresuran a formar alianzas en lugar de fomentar y proteger sus propias capacidades pueden estar poniendo en riesgo su futuro.
¿Qué tiene de especial lo virtual?
¿Qué le da a la empresa virtual su ventaja? En esencia, incentivos y capacidad de respuesta. Las empresas virtuales coordinan gran parte de sus negocios a través del mercado, donde los agentes libres se unen para comprar y vender los bienes y servicios de los demás; de este modo, las empresas virtuales pueden aprovechar el poder de las fuerzas del mercado para desarrollar, fabricar, comercializar, distribuir y respaldar sus ofertas de formas que las empresas totalmente integradas no pueden duplicar. Como dice William Joy, vicepresidente de investigación y desarrollo de Sun Microsystems: «No todas las personas inteligentes [del sector de las estaciones de trabajo] trabajan para Sun». Como un desarrollador externo de software para estaciones de trabajo puede obtener mayores recompensas vendiendo software a los clientes de Sun que desarrollando el mismo software que un empleado de Sun, avanzará más rápido, se esforzará más y asumirá más riesgos. Mediante incentivos de gran potencia basados en el mercado, como opciones sobre acciones y bonificaciones atractivas, una empresa virtual puede acceder rápidamente a los recursos técnicos que necesita, si esos recursos están disponibles. En situaciones en las que la tecnología cambia rápidamente, las grandes empresas que intenten hacer todo desde dentro fracasarán cuando compitan con las pequeñas empresas con empleados altamente cualificados y motivados.
¿Qué le da a la empresa virtual su ventaja? En esencia, incentivos y capacidad de respuesta.
Pero los incentivos que hacen que una empresa virtual sea poderosa también la hacen vulnerable. A medida que aumentan los incentivos y aumenta la asunción de riesgos, la coordinación entre las partes en el mercado se hace cada vez más difícil, precisamente porque hay mucha recompensa personal en juego. Cada parte en una actividad de desarrollo conjunto actúa necesariamente en su propio interés. Con el tiempo, la innovación puede generar sorpresas que benefician a algunas partes y perjudican a otras. El resultado: antes, los socios amistosos pueden no querer o no poder alinearse estratégicamente, y la actividad de desarrollo coordinada fracasa. Por el contrario, las empresas integradas y centralizadas no suelen recompensar a las personas por correr riesgos, pero sí tienen procesos establecidos para resolver los conflictos y coordinar todas las actividades necesarias para la innovación.
Esta compensación entre los incentivos y el control es la base de la decisión que los directivos deben tomar sobre cómo organizarse para la innovación. (Consulte la exposición «Encontrar el grado correcto de centralización».) Si las organizaciones virtuales y las empresas integradas están en los extremos opuestos del espectro, las alianzas ocupan una especie de punto medio organizativo. Una alianza puede lograr parte de la coordinación de una empresa integrada, pero, al igual que los actores de una red virtual, los miembros de una alianza se verán impulsados a mejorar sus propias posiciones y, con el tiempo, sus intereses pueden divergir. El desafío para los directivos consiste en elegir la forma organizativa que mejor se adapte al tipo de innovación que persiguen.
Encontrar el grado correcto de centralización
Tipos de innovación
¿Cuándo deberían organizarse las empresas para innovar mediante enfoques descentralizados (o virtuales) y cuándo deberían confiar en la organización interna? La respuesta depende de la innovación en cuestión.
Algunas innovaciones son autónomas, es decir, se pueden llevar a cabo de forma independiente de otras innovaciones. Se puede desarrollar un nuevo turbocompresor para aumentar la potencia del motor de un automóvil, por ejemplo, sin rediseñar por completo el motor o el resto del coche. Por el contrario, algunas innovaciones son fundamentalmente sistémicas, es decir, sus beneficios solo se pueden obtener junto con innovaciones relacionadas y complementarias. Para sacar provecho de la fotografía instantánea, Polaroid necesitaba desarrollar una nueva tecnología de cine y una nueva tecnología de cámara. Del mismo modo, la fabricación ajustada es una innovación sistémica porque requiere cambios interrelacionados en el diseño del producto, la gestión de los proveedores, la tecnología de la información, etc.
La distinción entre innovación autónoma y sistémica es fundamental para la elección del diseño organizacional. Cuando la innovación es autónoma, la organización virtual descentralizada puede gestionar bastante bien las tareas de desarrollo y comercialización. Cuando la innovación es sistémica, los miembros de una organización virtual dependen de los demás miembros, sobre los que no tienen control. En cualquier caso, una mala elección organizativa puede resultar costosa.
Piense en lo que le pasó a General Motors cuando la industria del automóvil pasó de los frenos de tambor a los frenos de disco, una innovación autónoma. GM tardó en adoptar los frenos de disco porque se habían integrado verticalmente en la producción de la tecnología antigua. Los competidores más descentralizados de GM se basaban, en cambio, en las relaciones de mercado con sus proveedores y en los poderosos incentivos inherentes a esas relaciones. Como resultado, pudieron superar a GM en el mercado con los nuevos frenos de disco, que los compradores de coches querían. Cuando las empresas utilizan de manera inapropiada enfoques centralizados para gestionar las innovaciones autónomas, como hizo GM en este caso, las pequeñas empresas y las grandes empresas más descentralizadas suelen tener un mejor rendimiento.
Para entender por qué los dos tipos de innovación requieren estrategias organizativas diferentes, tenga en cuenta el flujo de información esencial para la innovación. La información sobre las nuevas tecnologías y productos suele desarrollarse con el tiempo, a medida que los gerentes absorben los nuevos hallazgos de las investigaciones, los resultados de los primeros experimentos con productos y los comentarios iniciales de los clientes. Para comercializar una innovación de forma rentable, hay que recopilar y entender una enorme cantidad de conocimientos de los actores del sector, de los clientes y, a veces, de los científicos. Esta tarea es más fácil si la información está codificada.
La información codificada (por ejemplo, las especificaciones que figuran en los estándares y normas de diseño del sector) a menudo se puede transferir casi con la misma eficacia de una empresa a otra que dentro de una sola empresa. Como esa información se duplica fácilmente, tiene poca protección natural. A veces, las partes pueden protegerse mediante derechos de propiedad intelectual, pero esas piezas, especialmente los secretos comerciales y las patentes, son pequeñas islas en un amplio océano de conocimiento.
El resto de la información no se transmite tan fácilmente entre empresas. El conocimiento tácito es el conocimiento que se capta o utiliza implícitamente, pero que no se ha articulado del todo, como los conocimientos de un maestro artesano o las perspectivas arraigadas de una empresa o unidad de trabajo específica. Como ese conocimiento está profundamente arraigado en las personas o las empresas, tiende a difundirse lentamente y solo con el esfuerzo y la transferencia de personas. Las empresas establecidas pueden proteger el conocimiento tácito que poseen y solo comparten información codificada. Pueden ser muy estratégicos en cuanto a lo que divulgan y cuándo lo divulgan.
La información necesaria para integrar una innovación autónoma con las tecnologías existentes normalmente se entiende bien e incluso puede estar codificada en los estándares del sector. Las innovaciones sistémicas, por otro lado, plantean un conjunto único de desafíos de gestión en relación con el intercambio de información. Por su propia naturaleza, las innovaciones sistémicas requieren el intercambio de información y los ajustes coordinados en todo el sistema de productos. Aquí es donde un enfoque virtual y basado en el mercado de la innovación plantea graves peligros estratégicos. Las empresas no afiliadas vinculadas mediante contratos de plena competencia a menudo no pueden lograr una coordinación suficiente. Cada empresa quiere que la otra haga más y, al mismo tiempo, cada una busca formas de aprovechar al máximo la innovación. El intercambio de información puede reducirse o sesgarse, ya que cada uno busca aprovechar al máximo a costa del otro. En la mayoría de los casos, el intercambio abierto de información que impulsa la innovación sistémica será más fácil y seguro dentro de una empresa que entre los límites de la empresa. La mejor manera de resolver los inevitables conflictos y decisiones que surgen a medida que se desarrolla una innovación sistémica es mediante los procesos de gestión interna de la empresa integrados.
El caso de los estándares industriales
Coordinar una innovación sistémica es particularmente difícil cuando los estándares del sector no existen y hay que ser pionero en ello. En esos casos, es probable que las organizaciones virtuales tengan problemas estratégicos. Tenga en cuenta cómo surgen los estándares técnicos. Los participantes del mercado sopesan muchas tecnologías de la competencia y, finalmente, se unen en torno a una de ellas. Hay ganadores y perdedores entre los concursantes, y los posibles perdedores pueden intentar socavar al líder o fragmentar el estándar ascendiendo a un rival. Hasta que no haya un claro ganador, los clientes pueden quedarse al margen en lugar de correr el riesgo de tomar una mala decisión.
Debido a su tamaño y alcance, una empresa integrada tal vez pueda promover un nuevo estándar simplemente optando por adoptar una tecnología en particular. Si una gran empresa se compromete con una de las muchas tecnologías de la competencia, los consumidores y las empresas que promocionan tecnologías rivales probablemente se vean persuadidos de que sigan su ejemplo. Sin embargo, las empresas virtuales, que pueden tener dificultades para resolver los conflictos dentro de sus redes, no podrán salir de un punto muerto en una complicada batalla por los estándares. Los jugadores de una red no podrán coordinarse para actuar como una gran empresa.
Una vez establecido un estándar, las organizaciones virtuales pueden gestionar bastante bien la innovación. Pero cuando una industria comienza a hacer avanzar la tecnología a un nuevo nivel, el ciclo puede empezar de nuevo. Una vez más, las opciones técnicamente factibles presentan nuevas compensaciones estratégicas. Es posible que los proveedores, la competencia y los clientes no lleguen a un acuerdo sobre un camino común. A menos que surja un actor importante que rompa el atasco entre las tecnologías rivales, el estándar actual prevalecerá mucho más allá de su utilidad.
Hoy en día, los disquetes de los ordenadores están congelados según un estándar antiguo porque ninguna empresa ha podido establecer uno nuevo. IBM fue pionera en el disquete rígido de 3,5 pulgadas en 1987, cuando presentó sus ordenadores personales PS/2. En dos años, la capacidad de memoria de los disquetes de 3,5 pulgadas prácticamente se duplicó, pasando de 720 kilobytes a 1,44 megabytes, donde ha permanecido desde entonces.
¿Por qué? La capacidad técnica para ampliar la capacidad de los disquetes está disponible, pero ninguna empresa tiene la reputación ni la fuerza necesarias para establecer un nuevo estándar. Durante la década de 1980, IBM era lo suficientemente grande como para coordinar los estándares entre los principales participantes de la industria: fabricantes de ordenadores personales, fabricantes de disquetes y editores de software. Si IBM le dijera a la industria que utilizaría una capacidad determinada en su próxima generación de máquinas, otras harían lo mismo. Pero en la década de 1990, el liderazgo de IBM en el mercado de los ordenadores llegó a su fin, quizás de forma permanente. Hoy en día, IBM no es lo suficientemente fuerte como para mover la industria por sí sola, y no superará a los demás actores del sector ni se arriesgará a quedarse varado si no lo siguen.
Se aplica una simple regla general: cuando la innovación depende de una serie de innovaciones interdependientes, es decir, cuando la innovación es sistémica, las empresas independientes no suelen ser capaces de coordinarse para unir esas innovaciones. Puede que se necesiten escala, integración y liderazgo en el mercado para establecer y, posteriormente, promover los estándares en un sector.
El ordenador de IBM: ¿éxito o fracaso virtual?
El desarrollo del ordenador personal por parte de IBM es un ejemplo fascinante de las ventajas y desventajas de utilizar enfoques virtuales para innovar. Cuando IBM lanzó su primer PC en 1981, la empresa decidió subcontratar todos los componentes principales del mercado. Aprovechando las capacidades de otras empresas, IBM pudo lanzar su primer producto al mercado en solo 15 meses. El microprocesador (el 8088) lo compró Intel y el sistema operativo (que pasó a ser PC-DOS) lo licenció una entonces incipiente empresa de software, Microsoft. En efecto, el ordenador IBM tenía una arquitectura abierta: se basaba en estándares y componentes que estaban ampliamente disponibles. Los poderosos incentivos del mercado podrían coordinar las funciones de los fabricantes de componentes y los vendedores de software. IBM promocionó con éxito su arquitectura abierta entre cientos de desarrolladores externos de aplicaciones de software y productos de accesorios de hardware, sabiendo que esos productos aumentarían el atractivo del PC.
IBM también confió en el mercado para distribuir el producto. Aunque IBM lanzó sus propios centros de productos de IBM como escaparates minoristas y tenía su propia fuerza de venta directa para grandes clientes corporativos, la mayoría de los sistemas de la empresa se distribuían a través de minoristas independientes, inicialmente ComputerLand y Sears. Al final, hubo más de 2000 puntos de venta.
Al utilizar partes externas para el hardware, el software y la distribución, IBM redujo considerablemente su inversión en la comercialización del PC. Y lo que es más importante, esas relaciones permitieron a IBM lanzar un ataque contra Apple Computer, que había sido pionera en el mercado y estaba creciendo rápidamente. El IBM PC tuvo un éxito temprano y creó lo que se convirtió en la arquitectura dominante de toda la industria de los microordenadores. En 1984, tres años después de la introducción del PC, IBM sustituyó a Apple como el principal proveedor de microordenadores, por 26% del negocio. En 1985, la participación de IBM había crecido hasta el 41%%. Muchos observadores atribuyeron el éxito del ordenador al uso creativo por parte de IBM de las relaciones externas. Más de unos pocos analistas de negocios elogiaron el desarrollo de los ordenadores de IBM como modelo para hacer negocios en el futuro.
De hecho, el enfoque de IBM en su negocio de ordenadores es exactamente el tipo de estrategia descentralizada que los comentaristas instan a las grandes y lentas empresas a adoptar. Los primeros años del ordenador IBM ilustran muchas de las ventajas de utilizar los mercados y las empresas externas para coordinar la innovación: el rápido desarrollo de la tecnología y enormes mejoras tecnológicas procedentes de una amplia variedad de fuentes.
Sin embargo, con el paso del tiempo, las desventajas del enfoque descentralizado de IBM se han hecho evidentes. La empresa no previó que su enfoque virtual y abierto le impidiera dirigir la arquitectura de PC que había creado. La arquitectura abierta y la autonomía de sus vendedores provocaron motines en el diseño y la entrada de fabricantes de ordenadores compatibles con IBM. Al principio, la competencia se esforzó por lograr la compatibilidad con la arquitectura de IBM, pero después de varios años, la compatibilidad se generalizó en el sector. Y una vez que eso sucediera, los fabricantes podrían comprar la misma CPU de Intel y el mismo sistema operativo de Microsoft, ejecutar el mismo software de aplicación (de Lotus, Microsoft, WordPerfect y otros) y vender a través de los mismos canales de distribución (como ComputerLand, BusinessLand y MicroAge). A IBM le quedaba poco para establecer una ventaja competitiva.
Para mantener el liderazgo tecnológico, IBM decidió avanzar en la arquitectura de los PC. Para ello, IBM necesitaba coordinar las numerosas piezas interrelacionadas de la arquitectura, una tarea de coordinación tecnológica sistémica. Sin embargo, los proveedores de hardware y software de terceros que ayudaron a establecer la arquitectura original no siguieron el ejemplo de IBM. Cuando IBM presentó su sistema operativo OS/2, la empresa no pudo impedir que Microsoft introdujera Windows, una aplicación que funciona con el antiguo sistema operativo DOS, lo que redujo considerablemente las ventajas de cambiar a OS/2. Y empresas de hardware y software de terceros realizaron inversiones que ampliaron la utilidad de la arquitectura de PC original. Del mismo modo, Intel ayudó a Compaq a imponerse a IBM en 1986, cuando Compaq presentó el primer PC basado en el microprocesador 80386 de Intel, una mejora con respecto a las generaciones anteriores de microprocesadores utilizados en máquinas compatibles con IBM e IBM. A pesar de que IBM era propietario de 12% de Intel en ese momento, no pudo impedir que Intel trabajara con Compaq para superar a IBM en el mercado. Ese fue el principio del fin de la capacidad de IBM de dirigir la evolución de la arquitectura de los PC.
Para el tercer trimestre de 1995, la cuota de IBM en el mercado de ordenadores había caído a solo el 7,3%, por detrás del 10.5 de Compaq% compartir. Hoy en día, se rumorea que su negocio de ordenadores es, en el mejor de los casos, modestamente rentable. La mayoría de los beneficios de la arquitectura de PC se han transferido a los proveedores del microprocesador (Intel) y el sistema operativo (Microsoft) y a fabricantes externos de software de aplicaciones. El valor de mercado combinado de esos proveedores y terceros en la actualidad supera con creces al de IBM.
La experiencia de IBM en el mercado de los ordenadores ilustra la importancia estratégica de la organización en la búsqueda de la innovación. Los enfoques virtuales se enfrentan a graves problemas cuando las empresas buscan aprovechar la innovación sistémica. Las principales actividades de desarrollo que dependen unas de otras deben llevarse a cabo internamente para obtener los beneficios de las inversiones en I+D a largo plazo. Sin una coordinación directa, es posible que las innovaciones complementarias necesarias para aprovechar una nueva tecnología no estén disponibles.
Los virtuosos virtuales
¿Cómo han realizado las empresas virtuales más exitosas la difícil tarea de coordinación? Las empresas virtuales que han demostrado su poder de permanencia están todas en el centro de una red que utilizan para aprovechar sus propias capacidades. Pocas empresas virtuales que han sobrevivido y prosperado lo han subcontratado todo. Más bien, las virtuosas virtuales han fomentado y protegido cuidadosamente las capacidades internas que proporcionan la base esencial de la ventaja competitiva. E invierten recursos considerables para mantener y ampliar sus competencias principales internamente. De hecho, sin las competencias y capacidades únicas de estas empresas, su posición estratégica en la red duraría poco.
Pensemos en la conocida batalla entre MIPS Technologies y Sun Microsystems por el control de los procesadores de las estaciones de trabajo. MIPS intentaba promocionar su entorno de computación avanzada (ACE) contra la arquitectura de procesadores escalables (SPARC) de Sun. Sun tenía sólidas capacidades internas, mientras que MIPS intentaba competir como un actor más virtual, aprovechando las competencias de socios como Compaq, DEC y Silicon Graphics. El MIPS tenía un buen diseño técnico, pero eso era literalmente todo lo que tenía, y este vacío dejaba a la empresa a merced de sus socios. Tan pronto como DEC y Compaq redujeron su compromiso con la iniciativa ACE, la red se derrumbó y derribó el MIPS con ella. El solo hecho de que las empresas virtuales dependan de sus socios, proveedores y otras empresas externas las expone a riesgos estratégicos. Dicho de otra manera, hay muchas empresas pequeñas y dinámicas que no han podido superar a sus competidores más grandes. En particular, una empresa vacía como MIPS no está preparada para coordinar una red de empresas. Aunque Sun también trabajaba con socios de la alianza, tenía sólidas capacidades internas en el diseño de sistemas, la fabricación, el marketing, las ventas, el servicio y el soporte. Como resultado, Sun puede dirigir y hacer avanzar la arquitectura SPARC, una tecnología dominante en el sector.
El solo hecho de que las empresas virtuales dependan de sus socios, proveedores y otras empresas externas las expone a riesgos estratégicos.
Muchas empresas con capacidades superiores han prosperado como actores dominantes en una red. Japonés keiretsu están estructurados de esa manera. Pensemos en Toyota, cuya introducción exitosa del sistema de producción ajustada —una verdadera innovación sistémica— requirió una enorme coordinación con su red de proveedores. Como Toyota era mucho más grande que sus proveedores y, hasta hace poco, era el mayor cliente de prácticamente todos ellos, podría obligar a esos proveedores a hacer cambios radicales en sus prácticas comerciales. En una red más igualitaria, los proveedores pueden exigir una gran parte de los beneficios económicos de las innovaciones mediante lo que los economistas denominan estrategias de espera. Los actores centrales fuertes, como Toyota, rara vez son vulnerables a esas tácticas y, por lo tanto, están en mejores condiciones para impulsar y coordinar la innovación sistémica.
Las empresas virtuales más exitosas se encuentran en el centro de redes que están lejos de ser igualitarias. Puede que Nike confíe en sus socios asiáticos para la fabricación, pero sus capacidades de diseño y marketing le permiten tomar todas las decisiones. En la industria de la informática, Intel tiene el control efectivo del estándar de microprocesadores 80 x 86, Microsoft domina los sistemas operativos de los PC y Sun impulsa la arquitectura SPARC. Esas empresas controlan y coordinan el avance de las tecnologías en sus áreas y, en este sentido, funcionan más como empresas integradas que como virtuales basadas en el mercado.
Elegir el diseño organizativo correcto
Hoy en día, pocas empresas pueden darse el lujo de desarrollar internamente todas las tecnologías que podrían ofrecer una ventaja en el futuro. En todas las empresas que estudiamos, encontramos una combinación de enfoques: algunas tecnologías se compraban a otras empresas; otras se adquirían mediante licencias, asociaciones y alianzas; y otras tecnologías fundamentales se desarrollaban internamente. Conseguir el equilibrio adecuado es crucial, como demuestra la desastrosa experiencia de IBM en ordenadores. Pero, ¿qué constituye el equilibrio correcto?
Piense en la forma en que un innovador de éxito como Motorola evalúa las compensaciones. Motorola, líder en tecnología de comunicaciones inalámbricas, ha declarado que su objetivo a largo plazo es ofrecer una «comunicación sin ataduras», es decir, la comunicación en cualquier momento y lugar, sin necesidad de cables, cables de alimentación u otras restricciones. Para lograr ese objetivo, Motorola debe tomar decisiones importantes sobre dónde y cómo avanzar en las tecnologías necesarias. Esas decisiones giran en torno a un puñado de preguntas: ¿La tecnología es sistémica o es probable que pase a ser sistémica en el futuro? ¿Qué capacidades existen internamente y en la base de proveedores actual? ¿Cuándo estarán disponibles las tecnologías necesarias?
Para Motorola, la tecnología de las baterías es fundamental porque determina la funcionalidad que se puede integrar en un dispositivo de comunicación portátil y el tiempo que se puede utilizar el dispositivo antes de recargarlo. Las baterías han sido una tecnología de ritmo en esta área durante muchos años.
A medida que Motorola explora el horizonte en busca de una tecnología de baterías mejorada, se encuentra con una conocida compensación entre el grado de avance tecnológico y el número de proveedores de volumen confiables. Las tecnologías de baterías convencionales, como el níquel-cadmio (Ni-Cd), se han convertido en productos básicos y hay muchos proveedores. Pero pocos proveedores, si es que hay alguno, pueden ofrecer las tecnologías más avanzadas que Motorola necesita. Y las tecnologías más exóticas, como las pilas de combustible y las fuentes de energía de estado sólido, aún no son viables desde el punto de vista comercial con ningún proveedor. ¿Cómo debería organizarse Motorola para obtener cada una de las tecnologías que pueda necesitar? ¿En qué circunstancias debe la empresa comprar la tecnología a un proveedor y cuándo debe formar alianzas o empresas conjuntas? ¿Cuándo debería comprometerse Motorola con el desarrollo interno de la tecnología? (Consulte la exposición «Hacer coincidir la organización con la innovación».)
Hacer coincidir la organización con la innovación Para organizar una empresa para la innovación, los directivos deben determinar primero si la innovación en cuestión es autónoma (se puede llevar a cabo de forma independiente) o sistémica (requiere innovaciones complementarias). También deben evaluar si las capacidades necesarias para producir la innovación se pueden obtener fácilmente o si se deben crear.
En cuanto a la tecnología de Ni-Cd, la opción más clara para Motorola es comprar la tecnología o utilizar el mercado para coordinar el acceso a esta tecnología, ya que Motorola puede confiar en la competencia de muchos proveedores cualificados para ofrecerle lo que quiere, cuando lo necesita, a un precio competitivo. Motorola se enfrenta a una decisión más compleja en lo que respecta a las tecnologías de pilas de combustible y baterías de estado sólido. ¿Debería Motorola esperar a que esas tecnologías estén más disponibles o la empresa debería optar por una empresa conjunta o por un desarrollo interno?
Antes de que Motorola decida si espera o no a que se desarrollen tecnologías de baterías de última generación, debe tener en cuenta tres cuestiones. La primera es que Motorola podría perder la capacidad de influir en la dirección de las tecnologías; las primeras formas comerciales podrían diseñarse para aplicaciones que no beneficiaban a Motorola, como los automóviles eléctricos. El segundo problema es que Motorola podría perder la capacidad de acelerar las tecnologías, es decir, de lanzarlas al mercado en un momento atractivo desde el punto de vista competitivo. La tercera cuestión es que si esas tecnologías son (o se vuelven) sistémicas y Motorola no tiene control sobre ellas, es posible que la empresa no pueda avanzar en las tecnologías y funciones de diseño relacionadas para lograr su objetivo final de una comunicación sin ataduras.
Esas cuestiones sugieren que Motorola no puede simplemente esperar a que el mercado ofrezca las tecnologías. Más bien, Motorola necesita establecer vínculos sólidos con los proveedores con las mejores capacidades, aumentando así su capacidad de dirigir el camino de la innovación sistémica del futuro. Si la propia Motorola tiene sólidas capacidades, la empresa debería dedicarse a las tecnologías por sí misma.
La popularidad de las empresas en red y la descentralización se deben, en parte, a las observaciones en un horizonte temporal demasiado corto.
Para mantener su liderazgo a largo plazo, Motorola debe seguir desarrollando las partes fundamentales de su cadena de valor a nivel interno y adquirir tecnologías menos críticas en el mercado o mediante alianzas. Si bien las redes —con sus potentes incentivos— pueden ser eficaces a corto plazo para una tecnología que no cambia, no se adaptarán bien a largo plazo a medida que la tecnología se desarrolle y las empresas deberán depender de ciertas capacidades internas para mantenerse al día. La popularidad de las empresas en red y la descentralización se deben, en parte, a las observaciones en un horizonte temporal demasiado corto. Recuerde el entusiasmo que suscitó el éxito inicial de IBM con los ordenadores.
Escala y alcance
La historia empresarial nos ofrece una lección de sorprendente relevancia para las decisiones organizativas a las que se enfrentan los gerentes en la actualidad. En el clásico Escala y alcance, Alfred Chandler detalla cómo evolucionó la empresa moderna en los Estados Unidos, Alemania y Gran Bretaña a finales del siglo XIX. Los directivos que invirtieron el capital en crear empresas a gran escala abrieron el camino para las principales industrias de la segunda revolución industrial. Los mercados de los ferrocarriles, el acero, los productos químicos y el petróleo los desarrollaron y moldearon las principales compañías, no al revés. Las más exitosas de esas empresas fueron las primeras de sus sectores en realizar las enormes inversiones en la fabricación, la gestión y la distribución necesarias para obtener los beneficios de la innovación.
Las empresas que no asumieron compromisos internos tan coordinados durante este período pronto fueron dejadas de lado. La experiencia de las empresas británicas ofrece una advertencia para los campeones de la empresa virtual. Muchas disfrutaron de un temprano liderazgo tecnológico en sus sectores, pero la renuencia de esas empresas familiares a ceder el control a inversores externos les impidió invertir en desarrollar las capacidades que necesitaban para comercializar sus tecnologías. Cuando los competidores alemanes o estadounidenses realizaron las inversiones necesarias, las empresas británicas perdieron su posición de liderazgo. En el sector químico, por ejemplo, el plomo británico en la década de 1870 se perdió por completo en 1890. La historia incluso dio a las compañías químicas británicas una segunda oportunidad cuando la derrota de Alemania en la Primera Guerra Mundial costó temporalmente a los fabricantes de productos químicos alemanes sus plantas y redes de distribución. Pero en 1930, las compañías químicas alemanas recuperaron el liderato porque los británicos volvieron a no invertir adecuadamente. La lección es que las empresas que desarrollan sus propias capacidades pueden superar a las que dependen demasiado de la coordinación a través de los mercados y las alianzas para construir sus negocios.
Todas las principales industrias de finales del siglo XIX y principios del XX (la química, el acero y los ferrocarriles) experimentaron una rápida innovación sistémica. Las ganadoras fueron las empresas que realizaron importantes inversiones internas para dar forma a los mercados, y no las que confiaron en otras para liderar el camino. Si bien las condiciones comerciales ciertamente han cambiado, muchos de los principios que funcionaban hace un siglo siguen vigentes.
Hoy en día, empresas líderes como Intel y Microsoft realizan grandes inversiones para mejorar sus capacidades actuales e impulsar la creación de otras nuevas. Como muchas innovaciones importantes son sistémicas, la descentralización sin una influencia estratégica y una coordinación son exactamente una estrategia organizativa equivocada. En la mayoría de los casos, solo una gran empresa tendrá la escala y el alcance necesarios para coordinar las innovaciones complementarias. Tanto para la industria química de hace 100 años como para la industria de los microordenadores hoy en día, el éxito a largo plazo exige una inversión considerable y sostenida en una empresa. Las lecciones de la segunda revolución industrial se aplican a la tercera: las empresas expertas y bien gestionadas que dediquen los recursos internos adecuados a la innovación darán forma a los mercados y crearán las nuevas industrias del siglo XXI.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.