La otra disrupción
por Joshua Gans

Desde que Clayton Christensen publicó El dilema del innovador, en 1997, los estudiosos de administración se centraron en las innovaciones que pueden generar disrupción en los patrones de demanda de los clientes. La historia normalmente se desarrolla así. Un nuevo participante desarrolla un producto innovador que inicialmente solo es atractivo para un segmento de clientes especializado y que puede tener un rendimiento inferior al de los productos principales con las medidas tradicionales. Al principio, los clientes rechazan la innovación, pero a medida que mejora rápidamente en las dimensiones de rendimiento que les interesan, comienzan a adoptarla y el nuevo participante se convierte en una verdadera amenaza para los operadores tradicionales.
Durante las últimas dos décadas, los directivos han desarrollado un manual defensivo para hacer frente a este tipo de innovación disruptiva «del lado de la demanda». Lo más común es que capten nuevos participantes o que se «generen disrupción» mediante la creación de unidades autónomas encargadas de explorar innovaciones potencialmente disruptivas. La idea es que, una vez que la innovación disruptiva comience a dominar el sector, la empresa esté lista para incorporar su nueva tecnología a sus operaciones principales y, en el proceso, transformarse.
Pero lograrlo resulta ser más difícil en la práctica de lo que parece en teoría: en muchos casos, las empresas tradicionales con problemas se ven incapaces de transferir las nuevas tecnologías a sus operaciones principales porque, para ello, tienen que cambiar radicalmente la forma en que fabrican y distribuyen sus productos. En esencia, la arquitectura básica del producto (su diseño) cambia junto con las expectativas y preferencias de los clientes, lo que provoca una disrupción «por el lado del suministro».
Pensemos en el desafío que el iPhone supuso para la BlackBerry en 2007. Según todos los informes, el iPhone inicialmente tenía un mal rendimiento en términos de calidad de las llamadas, duración de la batería y uso de la red en comparación con el BlackBerry, y no incluía el teclado que tanto gustaba a los usuarios de BlackBerry. Pero el diseño de producto fundamentalmente nuevo del iPhone, como sabemos en retrospectiva, representaba el futuro y los clientes empezaron a abrazarlo. BlackBerry y sus pares actuaron rápidamente para incluir funciones similares a las del iPhone (como una pantalla táctil y un navegador web mejor), pero no pudieron competir de forma eficaz porque la innovación les obligó a rediseñar el proceso de fabricación de los teléfonos desde cero. Solo los nuevos participantes, como Samsung, que no estaban atrapados en un modelo de producción existente y podían orientar más fácilmente a la organización en torno a la nueva arquitectura de productos, podían desafiar realmente al iPhone.
Aunque se entiende con menos frecuencia, las interrupciones del lado de la oferta son sin duda más peligrosas que las que describe Christensen; de hecho, la disrupción de la arquitectura de un producto amenaza la propia supervivencia de la empresa de una manera que los cambios en las demandas de los clientes no lo hacen. La buena noticia es que la desaparición no es necesariamente inevitable cuando las arquitecturas de los productos y, por lo tanto, las estructuras organizativas se ponen patas arriba. Las firmas tradicionales pueden sobrevivir, y algunas incluso prosperar, con las repetidas interrupciones arquitectónicas. Basándome en una investigación de Rebecca Henderson, Mary Tripsas y otras personas y en mi propio estudio sobre las empresas que se enfrentan a la disrupción, he identificado tres recetas para sobrevivir a largo plazo: un modelo organizativo integrado, la propiedad de una función importante para el cliente final y un fuerte sentido de la identidad corporativa. Analicemos cada uno de ellos por separado.
La virtud de la integración
La primera regla para sobrevivir a la disrupción arquitectónica (desarrollar un modelo organizativo integrado) tiene sus raíces en la obra de la académica de gestión Rebecca Henderson. De 1987 a 1988, recopiló datos y realizó entrevistas sobre el impacto de la innovación en la industria de la alineación fotolitográfica. La fotolitografía es el método estándar de fabricación de placas de circuito impreso (PCB) y microprocesadores. Henderson descubrió que, si bien la industria experimentaba una innovación continua y gradual en la tecnología de alineadores, también se sometía a cuatro oleadas distintas de innovación disruptiva. Las cuatro oleadas no afectaron a los precios, que se mantuvieron estables, un patrón que difiere del ejemplo de Christensen, en el que los disruptores entran por la gama baja del mercado y ejercen una presión a la baja en todo el sector. Más bien, cambiaron la forma en que se montaban y fabricaban los alineadores, lo que representó un ejemplo relativamente puro de disrupción arquitectónica o del lado de la oferta.
Lectura adicional
Para obtener más información sobre los fundamentos teóricos de las ideas de este artículo, consulte lo
…
Con cada ola de disrupción, la cuota de mercado cambió drásticamente en favor de los nuevos participantes. De media, capturaron más de la mitad del mercado en su primer año. Cuando un operador tradicional fue el primero en crear una nueva arquitectura, solo ganó un 7% del mercado, de media. A las empresas tradicionales también les fue peor en términos de cuota de mercado ganada por cada dólar de I+D gastado en innovaciones arquitectónicas.
Sin embargo, una empresa tradicional, Canon, se opuso a la tendencia y mantuvo su cuota de mercado durante las oleadas de disrupción. Henderson descubrió que lo que más distinguía a Canon de la competencia era su organización más integrada, que apoyaba las inversiones en diferentes generaciones de tecnología al mismo tiempo. Canon creó equipos muy unidos que tenían una amplia gama de capacidades y experiencia en todas las generaciones de tecnología. Esta estructura organizativa le permitía imaginar nuevas arquitecturas de productos y responder a ellas. Por el contrario, la competencia de Canon se organizó en gran medida en torno a la arquitectura de productos tradicional. Sus equipos se centraron en desarrollar conocimientos especializados de los componentes y en generar una innovación rápida pero gradual, con las consiguientes mejoras en la eficiencia y el rendimiento.
Aunque Canon iba unos años por detrás de la competencia con los productos de próxima generación, cediendo la ventaja de ser el primero en actuar, su estructura organizativa le permitía aprovechar otros tipos de ventajas. En concreto, los ingenieros de Canon tuvieron la ventaja de aprender de las innovaciones de la competencia y utilizaron esos conocimientos para reinventar no solo sus componentes sino también la arquitectura de sus productos. De hecho, dos de las oleadas de disrupción —la impresora de proximidad y la proyección escaneada— se basaron en la tecnología y los procesos que Canon había desarrollado internamente.
Aunque otros operadores tradicionales también reconocieron el valor de las tecnologías emergentes, sus modelos organizativos parecían resistirse a las innovaciones. He aquí un ejemplo típico. En 1965, Kasper Instruments, un proveedor de componentes del sector de la fotolitografía, presentó un alineador de contacto; solo cinco años después, había capturado la mitad del mercado. Pero cuando se dio cuenta, en 1973, de que la capacidad de «proximidad» podía mejorar aún más su producto y lanzó la nueva tecnología, los fabricantes de microprocesadores rechazaron la innovación. La nueva tecnología despegó solo después de que Canon introdujera un alineador de proximidad mejorado a finales de la década de 1970. La incapacidad de Kasper de sacar provecho de su visión inicial se debió a que no entendió que introducir la capacidad requería cambiar la relación entre los componentes del alineador.
La importancia de los activos únicos
El gran riesgo de adoptar un enfoque como el de Canon es perder la ventaja de ser el primero en actuar. Sin embargo, este riesgo se elimina si la empresa es propietaria de un elemento central del producto cuya arquitectura se ve interrumpida, algo que el cliente valora. En ningún lugar se ilustra esto con más claridad que en la industria de la composición tipográfica impresa.
La composición tipográfica se remonta al siglo XV y a la invención de la tipografía móvil por parte de Gutenberg. No fue hasta 1886 que Ottmar Mergenthaler inventó el enfoque moderno de utilizar el teclado como dispositivo de entrada principal. Su máquina de linotipos, que utilizaba metal líquido para crear la tipografía, reinó durante unos 60 años como único método de composición tipográfica. Mergenthaler Linotype, junto con otras dos firmas, Intertype y Monotype, dominaban el sector.
En 1949, la tecnología cambió y el vertido de metal caliente dio paso a un proceso fotográfico con un flash de xenón. Una década después, el proceso pasó a ser digital y el flash de xenón fue sustituido por un tubo de rayos catódicos. Finalmente, en 1976, la tecnología de composición tipográfica láser actual se convirtió en el estándar. Según las investigaciones de Henderson, cabría esperar que con cada ola de innovación un nuevo participante se hubiera convertido en el líder del mercado. Sin embargo, Mergenthaler siguió siendo durante mucho tiempo un actor dominante en la industria.
Cuando surgió la tecnología de fotocomposición con flash de xenón, las tres empresas tradicionales tuvieron tiempo de elaborar sus estrategias y fueron las decisiones que tomaron en ese momento las que decidieron su futuro. Los tres desarrollaron máquinas que incorporaban la nueva tecnología. Intertype fue el primero en salir al mercado. Al aliarse con socios externos como Kodak, buscó implantar las tecnologías en sus máquinas existentes, dejando sus interfaces de componentes y sus procesos de producción sin cambios fundamentales.
Mergenthaler adoptó un enfoque muy diferente, como demuestra una investigación de Mary Tripsas, de la Escuela de Administración Carroll del Boston College. Tras un intento fallido inicial de construir una nueva máquina, volvió a la mesa de dibujo, contrató a personas con experiencia en la nueva tecnología y las integró estrechamente con un equipo existente para diseñar no solo una nueva máquina, sino un modelo completamente nuevo de producción. Como ocurrió con Canon, este proceso ralentizó a Mergenthaler: tardó 10 años en lanzar su primera máquina de fotocomposición. Entonces, ¿cómo sobrevivió Mergenthaler al retraso para aprovechar las ventajas de su arquitectura superior?
La respuesta es sencilla. Era dueño de fuentes. Los principales clientes de los tipógrafos eran los periódicos y las editoriales. Cada uno tenía un aspecto y un estilo en sus productos que dependían fundamentalmente de la fuente que utilizara. Resultó que esas fuentes eran propiedad y eran propiedad de los actuales tipógrafos de hot metal. Así que si un cliente quisiera Helvética (quizás la fuente más popular de todos los tiempos), tendría que comprar la fuente en Mergenthaler. La empresa no era propietaria de ninguna propiedad intelectual específica aparte de la marca registrada del nombre, pero eso demostró ser suficiente para dar a la empresa una ventaja. Aunque la tecnología dominante de las máquinas haya cambiado con los años, la demanda de fuentes por parte de los clientes nunca disminuyó.
Por supuesto, las tres empresas eran propietarias de fuentes. Entonces, ¿por qué Mergenthaler se benefició más que los demás? Porque aprovechó el respiro que le proporcionaba la propiedad de las fuentes para explorar la disrupción arquitectónica que supuso la nueva tecnología y, finalmente, ofreció una tipógrafa demostrablemente mejor. Podría haber optado por separar sus fuentes y abandonar por completo la composición tipográfica, pero hasta que apareció la composición tipográfica digital, no era fácil separar el precio de una fuente del coste de la composición tipográfica con ella, por lo que suministrar la máquina seguía siendo una parte integral del negocio. Solo desde la llegada de la composición tipográfica totalmente digital, Mergenthaler dejó la parte física del negocio para centrarse en el marketing y la concesión de licencias de sus fuentes.
El poder de la identidad
Tanto Mergenthaler como Canon demuestran que las empresas pueden superar las disrupciones arquitectónicas en los casos en que los productos finales (periódicos e impresoras) sigan siendo los mismos desde el punto de vista funcional, a pesar de que la tecnología subyacente de producción de los mismos haya cambiado radicalmente. Sin embargo, algunas disrupciones arquitectónicas también provocan cambios fundamentales en la propuesta de valor, lo que requiere una reinvención de la estrategia corporativa junto con una reconfiguración de la forma en que las empresas desarrollan y fabrican sus productos. Un buen ejemplo de disrupción a esta escala es la industria de la fotografía.
Todos conocemos la historia de cómo las principales empresas tradicionales, Polaroid y Kodak, no lograron hacer la transición de la fotografía cinematográfica a la digital. Aunque ambos habían anticipado el cambio, las prioridades organizativas y los conflictos internos dificultaron la adopción de un modelo de negocio radicalmente nuevo que no incluyera los altos márgenes del cine como fuente de ingresos. Sin embargo, una empresa pudo hacer el cambio: Fujifilm. Mary Tripsas ofrece una explicación, una que sigue un ejemplo del fundamental artículo de Ted Levitt en HBR «Miopía del marketing»: Cuando una empresa establece una identidad orientada al exterior, basada en las necesidades y los deseos de los clientes y las tecnologías y mercados emergentes que los respaldan, puede gestionar los inevitables conflictos por el capital y los recursos sin tener que sacrificar los puntos fuertes.
La forma en que se hace importa
Al principio de la evolución de un producto complejo basado en la tecnología, los ingenieros experimentan con diferentes formas de unir los componentes. Con el tiempo, surge una arquitectura de producto dominante, una que establece los estándares para los componentes y la forma en que se relacionan entre sí. En este momento, los ingenieros que trabajan en los productos son conscientes de la razón de ser del diseño dominante. Tienen los conocimientos de arquitectura necesarios para entender cómo un cambio en un componente afecta al rendimiento de los demás y para gestionar las compensaciones a medida que los componentes evolucionan.
A partir de ese momento, la mayoría de las empresas comienzan a organizarse en torno a los componentes del producto. Los equipos especializados en un teléfono inteligente, por ejemplo, trabajan con la batería, la carcasa, la pantalla de entrada, etc. Tiene sentido que estos equipos de componentes trabajen a rabiar para mejorar sus partes del producto: es extraordinariamente eficiente y conduce a una empresa que funciona sin problemas. La desventaja es que los ingenieros y diseñadores son menos conscientes de la arquitectura general del producto y de las compensaciones y relaciones que contiene; los conocimientos de arquitectura pasan a ser tácitos y forman parte del fondo de pantalla.
Cuando los avances tecnológicos conducen a una nueva arquitectura de productos, las empresas con organizaciones modulares suelen fallar. Debido a su especialización, los equipos de componentes pierden de vista los avances tecnológicos fuera de su área de enfoque, así como el panorama general de la forma en que se combinan los componentes. (En este momento, es muy posible que nadie de la firma se centre en el diseño arquitectónico general). Cuando surge una nueva arquitectura, los gerentes tienden a infravalorarla, ya que normalmente al principio no ofrece un rendimiento tan bueno como lo hace la arquitectura establecida, que mejora continuamente.
Por el contrario, las empresas cuyas operaciones permanecen más integradas más allá de los límites de las tareas y funciones se adaptan mejor a los cambios arquitectónicos (al menos en principio). Sus conocimientos de arquitectura son conscientes y están ampliamente distribuidos; están más atentos al potencial de una nueva arquitectura para ofrecer una mejora muy rápida del rendimiento de la producción y dar lugar a productos que sustituyan a los de las empresas tradicionales.
Fujifilm, al igual que sus competidores, se dio cuenta del potencial de la fotografía digital desde el principio. Comenzó a investigar nuevas tecnologías en 1975 y produjo prototipos de productos a principios de la década de 1980. En esa época, la mayor parte de sus ventas procedían de películas, papel fotográfico y productos químicos fotográficos, pero la empresa también tenía negocios en películas y procesadores de rayos X, microfilmes, películas para artes gráficas, cintas magnéticas y papel de copia sin carbono. Esta amplitud de capacidades y alcance permitió a Fujifilm definirse como algo más que un fabricante de películas o una empresa de fotografía como Kodak y otros competidores. En 1978, comenzó a describirse a sí misma como una «empresa de grabación de información audiovisual». Este fue el primer paso de un proceso estratégico más largo que trasladó la identidad de la empresa del dominio bastante específico de la fotografía a los dominios más amplios de la «imagen y la información».
Esta orientación tenía implicaciones estratégicas claras para Fujifilm. Por ejemplo, podría plantearse lanzar un producto de hardware caro para radiografía electrónica sin preocuparse por infringir el modelo de negocio tradicional de «navajas y cuchillas», según el cual las empresas de fotografía vendían su hardware barato para que los clientes se engancharan a las películas. La identidad más inclusiva de Fujifilm facilitó a los directivos la visión e implementación de nuevos modelos de negocio adecuados al mundo digital. Fujifilm también tomó un camino muy diferente al de la competencia en cuanto a la forma en que abordó la investigación y el desarrollo. Por ejemplo, sus unidades de imagen digital estaban integradas en la división principal de I+D, mientras que las Polaroid eran distintas. Esto dio legitimidad a las unidades digitales de Fujifilm y minimizó los conflictos internos durante la transición al cine. La empresa también pudo encontrar nuevas aplicaciones de imagen para las capacidades químicas existentes que había creado a través del negocio del cine, en particular la aplicación de productos químicos en las pantallas de visualización de las imágenes generadas digitalmente.
Al convertirse en una empresa de «información e imagen», Fujifilm pudo prosperar en el ámbito digital de una manera que sus competidores no lograron.
El verdadero dilema
Hacer frente a la amenaza de una disrupción arquitectónica tiene un precio. La integración organizacional requiere que los gerentes se muevan con fluidez entre los equipos o desarrollen equipos multifuncionales responsables de múltiples tecnologías (antiguas y nuevas) simultáneamente, de modo que los conocimientos de arquitectura integrados lleguen a la cima. Este modelo es diametralmente opuesto a las recetas tradicionales de alto rendimiento, que requieren estructuras modulares y equipos de desarrollo de productos independientes de «próxima generación».
Por lo tanto, las empresas se enfrentan a un dilema: organizarse en torno a una estructura modular es extremadamente eficiente a la hora de desarrollar la innovación de los componentes; sin embargo, las distintas divisiones crean barreras organizativas y cierran las vías para integrar los nuevos conocimientos de arquitectura en la actividad principal.
Una nueva narrativa
La mayoría de los directivos están muy familiarizados con la narrativa de la innovación disruptiva descrita por Clay Christensen: los disruptores entran en un mercado y compiten ferozmente con las empresas tradicionales, tragándose cuota de mercado a medida que sus innovaciones ganan terreno. Por lo tanto, puede que sorprenda enterarse de que más a menudo la competencia entre los innovadores disruptivos y las empresas tradicionales se transforma en cooperación.
En un estudio reciente sobre más de 50 años de estrategias para empresas emergentes en la industria del reconocimiento automático de voz, Matt Marx, David Hsu y yo examinó las innovaciones en el sector que se ajusta a la definición de disruptivo de Christensen: tecnologías que entraron en la gama baja del mercado y mejoraron de manera constante con el tiempo según las métricas tradicionales. Los nuevos participantes introdujeron la mayoría de esas innovaciones, pero normalmente acababan siendo adquiridas por las empresas tradicionales o cooperando con ellas.
Un ejemplo de ello es Vlingo, que en 2010 desarrolló una aplicación de reconocimiento de voz móvil. A diferencia del software existente, la nueva tecnología no limitaba a los usuarios a un conjunto predefinido de frases reconocibles, sino que les permitía hablar de forma natural. No es sorprendente que al principio fuera menos precisa que las tecnologías anteriores.
El objetivo a largo plazo de Vlingo era integrar su tecnología en los dispositivos móviles y las aplicaciones de otras empresas con licencia, pero debido a su bajo rendimiento desde el principio, tenía que demostrar a los proveedores de telefonía móvil que los consumidores adoptarían la tecnología. Así que salió al mercado con su propia aplicación y compitió directamente con las empresas con las que esperaba conseguir eventualmente acuerdos de licencia. Esta estrategia funcionó: los clientes empezaron a adoptar la tecnología y Vlingo pudo pasar de competir contra las firmas tradicionales a cooperar con ellas.
Vlingo no estaba solo: descubrimos (teniendo en cuenta otros factores) que, entre los nuevos participantes que empezaron a competir con los tradicionales, los que tenían tecnologías disruptivas tenían cuatro veces más probabilidades de cambiar a la cooperación que los que tenían innovaciones no disruptivas. Esto sugiere que para las empresas tradicionales, esperar a que se demuestre una tecnología disruptiva y, luego, cooperar con el participante más prometedor es una estrategia exitosa para hacer frente a la disrupción del lado de la demanda.
Entonces, ¿cuál es la estrategia de supervivencia más coherente? Las interrupciones del lado de la demanda suelen gestionarse de forma reactiva mediante la adquisición o incluso la cooperación con los disruptores emergentes. Según mis investigaciones, en muchos sectores, los disruptores y los tradicionales cooperan con mucho éxito, lo que sugiere que la narrativa de la disrupción convencional —en la que el valiente disruptor desplaza al tradicional— no es la trama estándar. Con mucha más frecuencia, los operadores tradicionales adquieren el disruptor o la licencia. Esto no quiere decir que los directivos que se enfrentan a perturbaciones del lado de la demanda deban quedarse de brazos cruzados. Incluso la gestión reactiva requiere el desarrollo de las capacidades internas y, como muestran enfáticamente las pruebas empíricas, pocas empresas son buenas en la adquisición o integración de otras empresas o en la gestión de las relaciones con firmas emprendedoras.
Dicho esto, las empresas deberían centrarse la mayor parte de sus esfuerzos en gestionar de forma proactiva las disrupciones arquitectónicas, ya que es más probable que se trate de eventos que acaben con la empresa. Los directivos deberían organizar la empresa para lograr una integración más profunda y crear una identidad más inclusiva de modo que las innovaciones arquitectónicas puedan absorberse y explotarse, al tiempo que se aseguran de conservar el control o la propiedad de los aspectos clave de la experiencia del cliente final, que permanecerán relativamente constantes durante las interrupciones. Esto representará un cambio sustancial en el enfoque de la dirección y en las hipótesis de las mejores prácticas, lo que no es de extrañar teniendo en cuenta la falta general de atención que se presta a la disrupción arquitectónica.
En lo que respecta a la disrupción, las empresas que mejor sobreviven no suelen tener el mejor desempeño. Puede que sean competidores sólidos, pero es poco probable que sean el actor líder. Del mismo modo, las empresas que obtienen mejores resultados pueden, en última instancia, estar condenadas al fracaso; tarde o temprano se encontrarán con una disrupción que las dejará obsoletas. Hasta cierto punto, este también es el modelo de la naturaleza. Los animales grandes y especializados, como los pandas y los osos polares, luchan por sobrevivir a las depredaciones de la humanidad. Por el contrario, los mamíferos adaptables y, por lo general, más pequeños (piense en zorros y monos) parecen estar haciéndose un hueco exitoso en los pueblos y ciudades. La diferencia es que los animales no pueden elegir si se adaptan o no. Las empresas y sus gerentes pueden.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.