PathMBA Vault

Emprendimiento

La revitalización de todo: la ley del microcosmos

por George Gilder

Desde la Casa Blanca de Ronald Reagan hasta los centros del socialismo francés, desde los discursos de los liberales demócratas hasta las páginas de la Economista, una suposición sobre la tecnología estadounidense se ha mantenido firme durante mucho tiempo: un activo estadounidense clave es la cultura empresarial de Silicon Valley y centros empresariales similares. Sin embargo, a finales de la década de 1980, los heraldos del espíritu empresarial como la clave de la competitividad estadounidense se enfrentaron a una grave vergüenza. Los líderes del propio Silicon Valley protestaron porque, lejos de ser un activo, la cultura de las empresas emergentes se había convertido en la debilidad más grave de la industria estadounidense a la hora de competir con Japón.

El presidente de Intel, Gordon Moore, denunció a los financiadores de capital riesgo calificándolos de «capitalistas buitres» de Sand Hill Road, el paseo de fondos de riesgo de Palo Alto. El presidente de Intel, Andrew Grove, añadió que su empresa estaba amenazada tanto por Wall Street como por Japón. Dijo que los buitres y cazatalentos estadounidenses no solo se aprovechaban de sus mejores personas, sino que también el mercado de valores valoraba la fabricación y las fantasías de los desertores de Intel muchas veces más que los verdaderos chips y los logros de la propia Intel.

En un encuentro memorable en una conferencia de Dataquest, Jerry Sanders, presidente de Advanced Micro Devices, se enfrentó a Pierre Lamond, que alguna vez fue una figura destacada de National Semiconductor y ahora uno de los principales capitalistas de riesgo. «Llevó a mis mejores chicos a Cypress», denunció Sanders, «y el año pasado ganaron 3 millones con 14 millones en ventas. RAM estáticas rápidas. Gran cosa. Las RAM estáticas no son exactamente una innovación importante. [Intel los presentó en 1972.] Pero hasta ahora, todo bien. El problema es lo que van a hacer después. Lo logran cuando se concentran. Pero todas esas pequeñas firmas quieren crecer, y eso significa descentrarse. Después de los primeros 50 millones, créame, se hace mucho más difícil. No puede llenar las grandes fábricas con productos especializados. Hasta ahora, estas empresas acaban de estafar a las grandes firmas sin contribuir con nada significativo».1

Lamond intentó reírse de las quejas de Sanders y otros calificándolas simplemente de la matanza de ancianos que quieren que el mundo deje de girar en cuanto lleguen a la cima. Esa es una respuesta comprensible de los jóvenes emprendedores de hoy en día. Pero en medio de la carnicería de microchips de finales de la década de 1980, con los japoneses ganando en algunos indicadores de cuota de mercado, las respuestas fáciles plantean la pregunta.

Los líderes de las principales empresas de Silicon Valley estaban transmitiendo un mensaje serio: en el futuro, el éxito dependería de la cooperación y el capital barato, la planificación y el conocimiento político, el empleo vitalicio y la investigación gubernamental. Para los emprendedores, era como si Julius Erving hubiera abordado a Michael Jordan y le hubiera informado solemnemente de que su carrera en el baloncesto había terminado a menos que aprendiera a no saltar. Debilitadas por el «emprendimiento crónico» (acuñación de Robert Reich de Harvard), según la teoría, muchas compañías de semiconductores se dirigían a una catástrofe. «Los japoneses destruyen sistemáticamente la industria estadounidense, pieza por pieza», afirmó Grove. «Estamos en un derbi de demolición y algunos de nosotros vamos a morir».

Para los patriarcas de Silicon Valley, la solución era la intervención del gobierno de los Estados Unidos para remodelar y subvencionar la industria. Sus ideas dieron sus frutos en Sematech, un consorcio de investigación y desarrollo sobre la fabricación de chips que financiará mitad la industria y la otra mitad el gobierno. Aunque Sematech podría ayudar a los fabricantes estadounidenses que actualmente se ven perjudicados por las prioridades no comerciales del Pentágono y las demandas de personal, la idea de una política industrial pareció reivindicar a los principales estudiosos de la izquierda. Figuras como Reich, Lester Thurow del MIT y Chalmers Johnson de Berkeley han mantenido durante mucho tiempo que, ya sea que se movilice por la guerra o por la paz, el gobierno casi siempre desempeña el papel principal a la hora de evocar, desarrollar y financiar las nuevas tecnologías. Lo mejor es que los emprendedores actúen como proveedores o subcontratistas especializados de las principales corporaciones.

Ante el éxito de Silicon Valley, que avanzaba con cada vez más fuerza a medida que la actividad gubernamental disminuía, sus argumentos no parecían convincentes. Sin embargo, a finales de la década de 1980, surgió un nuevo grupo de analistas más sofisticados para reforzar el argumento, sobre todo un joven académico del MIT llamado Charles Ferguson, que se convirtió en una Cassandra vocal de la microelectrónica estadounidense.2

Ex consultor en IBM y LSI Logic, Ferguson demuestra un profundo conocimiento del establecimiento de la informática y la industria de los semiconductores. Su caso contra empresarios estadounidenses suena con convicción y autoridad. Su conclusión es contundente. Haciendo eco de Grove, Sanders y Charles Sporck, presidente de National Semiconductor, declara que sin una acción gubernamental urgente y decisiva, los productores estadounidenses de semiconductores no pueden competir en los mercados mundiales. Las empresas estadounidenses de semiconductores comerciales perecerán y la producción estadounidense se reducirá a unas cuantas plantas especializadas en IBM, AT&T y otras grandes empresas que suministran chips únicamente para su propio uso. Dado que los semiconductores son la base de todas las tecnologías avanzadas de informática, telecomunicaciones y defensa, el fracaso de la microelectrónica estadounidense paralizará la economía estadounidense y amenazará la defensa nacional.

Con un ojo cínico pero astuto, Ferguson describe el ciclo de vida de una empresa emergente típica en la industria de la información estadounidense: comienza con una ruptura con una gran empresa, a menudo con todo un equipo (incluidos ingenieros, ejecutivos y vendedores) atraído por perspectivas de riqueza que van mucho más allá de lo que su empleador puede ofrecer. Desde Sand Hill Road, ganan una inversión de hasta$ 20 millones. Arrendan equipos, oficinas y, a veces, incluso una planta. Contratan a más ingenieros y trabajadores de otras empresas.

Con un esfuerzo y un compromiso frenéticos, lanzan un nuevo dispositivo (un sistema CAD, una memoria no volátil, un chip para aplicaciones específicas, una unidad de disco duro) que se basa principalmente en el trabajo de su antigua empresa y es competitivo con su línea de productos. Debilitada por su deserción, la gran empresa no puede responder rápidamente. El nuevo dispositivo supera a todos los demás del mercado y genera pedidos masivos, que la empresa emergente no puede cubrir.

Pero la «ayuda» está en camino. Una horda de imitadores, también financiados por capital riesgo (54 fabricantes de unidades de disco, 47 empresas de matrices de compuertas, 25 fabricantes de estaciones de trabajo y 11 fabricantes de memorias no volátiles), irrumpen en el mercado. La startup en cuestión lucha por diversificarse y escapar de la estampida. Los gastos se disparan. Se necesita financiación intermedia de los fondos de riesgo. Están demasiado comprometidos como para negarlo; la startup recibe varios millones más. El negocio se tambalea pero se aferra a su liderazgo. Por último, si todo va bien, la empresa por fin obtiene un pequeño beneficio trimestral y, con el entusiasmo hambriento de los capitalistas de riesgo, las aseguradoras, los abogados, los contadores y los consultores, pasa a una oferta pública.

Sin embargo, ya hay deserciones clave. Impulsada en parte por ellos, la competencia —ya sean otras empresas emergentes o actores importantes— se ha hecho más poderosa. La nueva empresa sigue adelante sin miedo, ampliando sus capacidades de fabricación y su esfuerzo de marketing. La inversión total aumenta hacia$ 200 millones.

Pero el ambiente ha cambiado de manera decisiva. El precio de las acciones está cayendo y el frenesí inicial de trabajo ha disminuido. Los accionistas descontentos presentan una demanda colectiva, alegando que el prospecto los engañó y exigiendo varios millones en concepto de daños y perjuicios. (Ellos, o al menos sus abogados, lo conseguirán.) Para colmo de males, Hitachi y Toshiba amenazan con entrar en el mercado. Los fondos de riesgo han encontrado una nueva moda; Wall Street está aburrido de los semiconductores o el CAD; los mejores ingenieros están inquietos ante la sombría caída del valor de sus opciones sobre acciones.

Casi de la noche a la mañana, la empresa empieza a envejecer y los millonarios del papel que la dirigen se empobrecen de repente. Están muy endeudados y el IRS está atacando algunos de sus refugios fiscales, utilizados años antes. Se están retrasando en los plazos para la próxima generación de productos, las hipotecas de sus casas en Los Altos e incluso los próximos pagos de sus tarjetas de crédito de platino.

Desesperados por más fondos, negados en los Estados Unidos, se van al extranjero. Otra forma de decirlo es decir que deciden agotar las entradas. Deciden poner su empresa —principalmente las nuevas tecnologías que posee— en el mercado. De hecho, en los últimos años, muchas empresas emergentes estadounidenses se han vendido a Asia cuando las cosas se pusieron difíciles.

El sistema estadounidense dice: «Y qué». Pero Ferguson dice que es desastroso. Al vender donde están los compradores, Japón o Corea, los emprendedores no venden solo sus propios activos, sino que venden los activos públicos de los Estados Unidos.

En el negocio no solo están el trabajo y el ingenio de los propietarios, sino también el valor de su experiencia en una gran empresa, el valor del daño que se le inflige tras su ruptura y el valor de la investigación subvencionada que se lleva a cabo en las universidades estadounidenses. Además, está el valor de las licencias, las patentes, los estándares y las arquitecturas incorporadas en el producto y un punto de vista en el mercado estadounidense. Por último, está el valor de las subvenciones del código tributario que favorecen a las pequeñas y en crecimiento, que pueden mostrar un rápido aumento de las ganancias de capital, los gastos de I+D, las transferencias de pérdidas fiscales y los créditos fiscales a la inversión. Y aunque las grandes empresas explotan los beneficios fiscales de manera más masiva e ingeniosa que las pequeñas, la mayoría de las afirmaciones de Ferguson son plausibles, si se exageran. El «subsidio» a las ganancias de capital, por ejemplo, es ahora una penalización proporcional a la inflación.

En cualquier caso, las ventajas fiscales del capital riesgo aumentan un poco los costes de las empresas establecidas de todos los tamaños que tienen que pujar por terrenos, mano de obra, equipo y capital en lugar de las empresas emergentes. Las personas capacitadas se vuelven menos valiosas (si aprenden algo especial pueden irse) y también más caras (pueden amenazar con irse). Si bien toda la industria debe compartir los costes del sector de las empresas emergentes, según Ferguson, la economía estadounidense obtiene pocos beneficios compensatorios.

Ferguson no se conforma con criticar a los emprendedores estadounidenses; tiene un argumento mucho más amplio que presentar. No es culpa de los emprendedores que traicionen a su país y a su industria. La culpa es de los agobiantes límites de la economía del laissez-faire. La optimización personal no es óptima para el país y el sector. El interés propio del emprendedor conduce, como por una mano invisible, tanto a la riqueza de las personas como a la pobreza de las naciones.

Esto no siempre fue cierto, reconoce Ferguson. Hubo un tiempo en que los jugadores podían saltar y hacer mates en Wall Street sin perjudicar a la industria. Pero independientemente de los éxitos históricos, el emprendimiento estadounidense ahora entra en conflicto con las tendencias más profundas y poderosas de la tecnología de la información. En el pasado, las industrias de los semiconductores, la informática, las telecomunicaciones y la defensa podían funcionar por separado, encabezadas por las pequeñas empresas. Sin embargo, con el aumento de la densidad de chips hasta alcanzar millones de transistores, los circuitos integrados ahora abarcan sistemas completos. Al unir los mundos que alguna vez estuvieron separados de los ordenadores, la automatización industrial y las telecomunicaciones, estos sistemas requieren recursos técnicos, financieros e incluso políticos que las pequeñas empresas no pueden reunir.

Según Ferguson, estos cambios se derivan de una ley básica de la tecnología de la información. En el diseño, el ensamblaje, la formación, las pruebas, las redes o el marketing, los costes aumentan con la complejidad y la complejidad aumenta con la cantidad de objetos que se gestionan. Por ejemplo, el número de conexiones entre los nodos de una red aumenta en función del cuadrado del número de nodos. Esta regla se aplica sin piedad, ya sea a la proliferación de transistores en chips de alta densidad, de componentes de sistemas informáticos complejos, de líneas en el código de software, de terminales en una red de procesamiento de datos o de la interacción humana en una fábrica. La complejidad abruma a todos los sistemas compuestos por una gran cantidad de componentes simples, como los que la industria estadounidense de semiconductores produjo en su apogeo.

Además, como añadiría Ferguson, la misma ley se aplica a los semiconductores empresas, que a su vez comprenden un sistema industrial de componentes descoordinados y de base limitada. De repente, este sistema se verá inundado por una enorme ola de complejidad.

La única respuesta, sostiene Ferguson, es la jerarquía: normas competitivas, interfaces modulares y estándares industriales impuestos desde arriba. Este tema es familiar para los seguidores de los pioneros del diseño Carver Mead y Lynn Conway, así como para los observadores de la industria, que también han apostado por enfoques de arriba hacia abajo como respuesta al problema de la complejidad del diseño electrónico. Sin embargo, Ferguson no habla únicamente de diseñar un chip o un ordenador, sino de diseñar una industria o incluso una economía. La modularidad y la jerarquía deben imponerse desde arriba. Necesitan reglas y estándares que guíen a los productores de futuros módulos y sistemas conectables. Necesitan el control de las grandes corporaciones y los gobiernos.

El elevado coste de desarrollar normas impone grandes penalizaciones al líder del sector. Debe hacer el esfuerzo técnico para determinar los estándares y el esfuerzo político para imponerlos. Estos esfuerzos amplían los mercados y reducen los precios para todo el sector. Pero en un mercado fragmentado, los costes no se pueden recuperar. A menos que el gobierno o el poder oligopólico disciplinen al sector, las empresas que pagan por estos estándares y arquitecturas se convierten en blancos fáciles de los rivales que pueden evitar estos costes.

En tecnología de la información, el tío Sam ha sido el blanco fácil. Casi todos los estándares y arquitecturas de hardware, software e interfaces de red se originaron en los Estados Unidos, principalmente de IBM y AT&T (o con su patrocinio). En conjunto, el desarrollo y la propagación de estas normas cuestan decenas de miles de millones de dólares. Pero debido a las leyes antimonopolio, la aplicación laxa de los derechos de propiedad intelectual y la prohibición del MITI de subastar licencias en Japón, esta enorme dotación está disponible a un precio muy inferior a su coste. Entre 1956 y 1978, cuando surgieron la mayoría de las principales innovaciones, se estima que Japón pagó algunos$ 9 000 millones para tecnologías estadounidenses que requirieron, según la asignación de los costes, entre$ 500 mil millones y$ 1 billón para desarrollar.

Sin embargo, el coste real puede haber sido aún mayor, ya que al fijar objetivos de diseño críticos, las normas cambian el enfoque de la competencia de la invención de los productos a su fabricación a escala mundial. Como la fabricación es en sí misma un sistema complejo, la energía vuelve a fluir hacia arriba. Una planta competitiva a nivel mundial para la producción de grandes volúmenes de productos básicos cuesta algunos$ 250 millones. Al requerir la integración de una serie de tecnologías (sofisticados controles informáticos y sistemas de diseño, equipos magnéticos y de vacío avanzados, ciencia de los materiales y fotónica, automatización y robótica), la fabricación impone enormes economías de alcance técnico.

Al mismo tiempo, ya sea en circuitos integrados, CPU integradas, terminales en red, ordenadores en línea a miles de kilómetros de distancia o redes de telecomunicaciones de todo el mundo, las comunicaciones, más que los componentes, definen cada vez más los sistemas. Las interconexiones dictan la estructura de la solución. Estas restricciones necesariamente empujan la energía de las pequeñas empresas a empresas lo suficientemente grandes como para definir todo el sistema.

Como concluye Ferguson, la forma tecnológicamente óptima para la industria mundial de la información bien podría consistir en IBM, AT&T y algunas empresas de Japón. El oligopolio es óptimo, no solo para la ventaja competitiva de determinadas naciones, sino también para el bienestar del mundo. Sin embargo, los Estados Unidos siguen plagados de un panorama de la información extraordinariamente fragmentado: un caos de empresas, arquitecturas, sistemas operativos, protocolos de red, procesos de semiconductores, sistemas de diseño y lenguajes de software, todos controlados por emprendedores ávidos de riqueza personal o por empleados sofisticados dispuestos a huir al mejor postor, ya sea un capitalista de riesgo o un conglomerado extranjero. Excepto en IBM y, posiblemente, en AT&T, la electrónica estadounidense no define ni defiende intereses mayores.

Y como insisten Ferguson y los patriarcas de Silicon Valley, la ley de la complejidad lleva las decisiones cada vez más arriba en la jerarquía y dicta organizaciones cada vez más grandes. El sistema está enfermo y el emprendimiento crónico es la enfermedad. Ferguson, Reich y otros están de acuerdo en que la solución es una avalancha de subsidios y directrices gubernamentales que favorezcan a las empresas establecidas y contrarresten el sesgo hacia las nuevas empresas.

En esencia, estos estudiosos de la política industrial quieren que los Estados Unidos copien a Japón tal como se ve popularmente, con una poderosa combinación de MITI e industrias favoritas. Pero no se dan cuenta de que en todas las industrias manufactureras que los japoneses han dominado, han generado muchas más empresas y una rivalidad nacional más intensa que en los Estados Unidos. Los japoneses crearon, por ejemplo, al menos cuatro veces más empresas de acero, automóviles, motocicletas y electrónica de consumo, y seis veces más empresas de robótica que los Estados Unidos. Fueron oligopolios estadounidenses tan establecidos como GE y RCA, General Motors y Ford los que sucumbieron ante los japoneses, más fragmentados y emprendedores.

De hecho, las únicas industrias clave en las que los Estados Unidos crearon considerablemente más empresas que Japón fueron los ordenadores y los semiconductores. A pesar del liderazgo inicial de Japón en radios de transistores y en la producción masiva de chips de consumo, el tío Sam sigue prevaleciendo en el hardware y el software de ordenadores y semiconductores. Lo que hay que explicar no es el éxito de Japón en la microelectrónica sino el éxito de los Estados Unidos.

Para los críticos, la respuesta es el Pentágono, el gran cliente inicial de ordenadores y circuitos integrados. Pero, de hecho, durante la década posterior a la Segunda Guerra Mundial, cuando la defensa dominó la tecnología y los tipos impositivos estadounidenses confiscatorios sofocaron el espíritu empresarial, los fabricantes estadounidenses perdieron el liderato ante Japón en la producción masiva de transistores y ante la Unión Soviética en misiles. La industria de los semiconductores no entró en una espiral alcista hasta la década de 1960, cuando los tipos impositivos se redujeron drásticamente y la participación militar en las ventas de la industria cayó alrededor de un 80%%.

El secreto del éxito de los Estados Unidos fue el mismo sistema de riesgo que los críticos condenan. Contrarrestó los altos costes de capital al destinar los fondos de manera eficiente, liberó energías que a menudo estaban estancadas en las grandes empresas, atrajo un flujo crucial de inmigrantes creativos y fomentó una difusión desenfrenada de la tecnología que compensó la falta de coordinación nacional. La fuerza estadounidense no se deriva de la ley de la complejidad sino de la ley del microcosmos.

Esta ley, descubierta por Carver Mead de Cal Tech en 1968, dice que la complejidad solo crece exponencialmente más allá del chip. En el microcosmos, en particular en las franjas de silicio, la eficacia crece mucho más rápido que la complejidad. Por lo tanto, la energía debe moverse hacia abajo, no hacia arriba.

En volumen, cualquier cosa en un chip es barata. Pero a medida que se sale del microcosmos, los precios suben exponencialmente. Una conexión en un chip cuesta unas millonésimas de centavo, mientras que el coste de un cable de un paquete de plástico es de alrededor de un centavo, un cable de una placa de circuito impreso cuesta diez centavos, las conexiones de placa base entre placas cuestan alrededor de un dólar cada una y las conexiones entre ordenadores, ya sean con cables de cobre o a través de hilos de fibra óptica o fuera de satélites, cuesta entre unos pocos miles y millones de dólares. Como resultado, los esfuerzos por centralizar todo el sistema reducen drásticamente la eficiencia de la informática.

Cuando Ferguson dice que la complejidad aumenta al cuadrado del número de nodos, en realidad no defiende la autoridad centralizada sino su imposibilidad. Más allá de cierto punto, llega la explosión combinatoria: los programas de software de gran tamaño tienden a averiarse más rápido de lo que se pueden reparar. En cuanto a las comunicaciones, las conexiones pueden multiplicarse. Pero la coordinación y el mando imponen cargas imposibles a los sistemas centralizados.

Muchos observadores no conocen estos principios porque entran en conflicto con una poderosa tendencia en la economía del almacenamiento y la transferencia de datos. Cuando John von Neumann inventó la arquitectura que aún domina en los ordenadores hoy en día, la industria operaba en el macrocosmos de la electromecánica. En el macrocosmos, los elementos activos (conmutadores) solían ser más caros que los dispositivos de almacenamiento. Los procesadores de datos o elementos de conmutación eran tubos de vacío frágiles, complejos y caros con filamentos de tungsteno. Los dispositivos de almacenamiento eran tarjetas perforadas de papel desechables o plástico magnetizado. Lo más importante de todo es que las interconexiones estaban hechas de alambre de cobre prácticamente económico.

La arquitectura del ordenador de Von Neumann reflejaba estos costes relativos del papel, el plástico, el alambre y los tubos complejos. Ahorró en interruptores de tubos de vacío para el procesamiento y fue pródigo con cables y almacenamiento. Hechos de diferentes materiales, además, estos componentes tenían que mantenerse separados. Aunque la comunicación por cable entre ellas era sencilla, las interfaces entre las distintas funciones (convertir los datos del procesador a la tarjeta perforada, la cinta o el dispositivo magnético, y viceversa) requerían sistemas complejos y costosos de controladores periféricos, sensores, controladores y convertidores.

Como coste fijo de un ordenador, estos periféricos electromecánicos mejoraron las economías de escala de los procesadores centralizados, con grandes instalaciones de almacenamiento integradas. Por ejemplo, los controladores de tubos de vacío, los amplificadores de detección y otros soportes para las primeras memorias de núcleos magnéticos de IBM pesaban varios miles de libras y eran cientos de veces más pesados que los propios planos del núcleo de la memoria. Como el coste de los periféricos era totalmente independiente del tamaño de la memoria, las pequeñas cantidades de almacenamiento cuestan mucho más por bit que las grandes.

Todas estas condiciones de una industria de ordenadores aún esencialmente electromecánica favorecían la mística de IBM y sus ordenadores centrales de von Neumann. Un famoso estudio de mercado estimó la demanda mundial total de unos 50 ordenadores. La máquina estaba en un pedestal de la sala de procesamiento central, custodiada por un gremio acreditado de gurús del procesamiento de datos.

Estas condiciones llevaron a los expertos a ver el ordenador como un instrumento leviatán del Gran Hermano y a profetizar la aparición de grandes organizaciones para gestionar sus poderes. Las predicciones de un 1984 totalitario ganaron credibilidad con la imagen de Big Blue vestido de gris. Al caer en manos del estado y de otras grandes burocracias, el ordenador daría al estado nuevos poderes para gestionar la economía y manipular a las personas. Los estudiantes de finales de la década de 1960 llevaban insignias que parodiaban la conocida advertencia de una tarjeta perforada: «Soy un ser humano. No husillo, doble ni mutile». En Berkeley y otros campus universitarios, estallaron rebeliones luditas contra esta nueva y desalmada máquina.

Sin embargo, al sur de Pasadena, la exploración de Carver Mead de la física de la computación en estado sólido lo llevó a conclusiones completamente contrarias. Sostuvo que la miniaturización de los interruptores no tenía límites, excepto los túneles cuánticos espontáneos. Las funciones de un chip podrían reducirse desde las dimensiones de 20 micrones del día hasta un cuarto de micrón. En otras palabras, Mead predecía millones de transistores en un chip. Cuando eso sucediera, razonó, los interruptores serían casi gratuitos, simplemente un transistor infinitesimal sobre un sustrato de silicio. La memoria de trabajo podría estar hecha de los mismos interruptores del mismo material. El cable se volvería caro y obstruiría la superficie de silicio con metales extraños, difíciles de depositar y propensos a la electromigración por el calor o las altas corrientes. Llevar al mundo exterior desde un chip pequeño sería un problema grave.

Estos acontecimientos hicieron naufragar todos los supuestos clave del paradigma de von Neumann. Era pródigo con memoria remota y cableada, y centraba todo el procesamiento en una unidad central sumamente rápida. Prefería los ordenadores gigantes. En concepto, totalmente obsoleta, sobrevive hoy en día, solo ligeramente modificada, como la arquitectura de ordenador dominante.

Sin embargo, en el nuevo régimen, todos los componentes de von Neumann (almacenamiento, interconexión y procesador) están hechos de los mismos materiales mediante el mismo proceso. Todo el ordenador se ha convertido cada vez más en estado sólido. La memoria de trabajo está impresa en silicona. Incluso los controladores de los discos de almacenamiento masivo son circuitos integrados de estado sólido y convertidores monolíticos de analógico a digital y de digital a analógico.

A diferencia de los periféricos electromecánicos de los núcleos magnéticos, estos periféricos de silicio cuestan radicalmente menos cuanto mayor es el volumen de producción. En otras palabras, cuantos más ordenadores se fabriquen y vendan, más barato será el acceso a la memoria. Los controladores han reducido la curva de aprendizaje y ahora cuestan solo unos pocos dólares, una cantidad adecuada para la informática personal. La prima por la separación de funciones y por la escala de operación y almacenamiento ha dado paso a una prima aún mayor en la integración y la miniaturización en un mundo de potencia de procesamiento ampliamente distribuida.

Siempre que la complejidad se concentre en un solo chip y no en redes masivas, la eficacia en el microcosmos crece mucho más rápido que la complejidad. La potencia del chip crece mucho más rápido que la potencia de un procesador host que ejecuta un enorme sistema de muchos terminales de ordenador. La potencia de la persona que dirige una sola estación de trabajo (o una pequeña red de terminales especializadas) crece mucho más rápido que la potencia de un sistema burocrático en general. El poder de los emprendedores que utilizan la tecnología de la información distribuida crece mucho más rápido que el poder de las grandes instituciones que intentan poner la tecnología de la información a su alcance.

En lugar de impulsar las decisiones en la jerarquía, la microelectrónica las hace recaer sin remordimientos en manos del individuo. Esta es la ley del microcosmos. Este es el secreto del nuevo desafío estadounidense en la economía mundial. Ha surgido la nueva ley del microcosmos, que ha dejado a Orwell, von Neumann e incluso a Charles Ferguson a su paso. Con el microprocesador y las tecnologías de chips relacionadas, la industria de la informática ha sustituido sus anteriores economías de escala por nuevas economías de microescala.

Sin embargo, las nuevas normas no se entienden bien. En los últimos cinco años, IBM, Digital Equipment, Hewlett-Packard y la mayoría de los que quedan de la otrora impresionante BUNCH (Burroughs, Univac, NCR, Control Data y Honeywell), así como toda la industria informática japonesa, se han hundido una y otra vez sin darse cuenta debido a estos nuevos hechos de la vida microelectrónica. Si bien surgieron industrias multimillonarias en estaciones de trabajo en red, lideradas por Sun y Apollo, y en minisuperordenadores, lideradas por Convex, Alliant, N-Cube, Multiflow y muchos otros, las principales empresas siguieron defendiendo el principio de von Neumann de que la computación debe ser centralizada y en serie en lugar de paralela y distribuida. Incluso el DEC permitió un$ La industria de estaciones de trabajo de 3000 millones irrumpirá en medio de su mercado en lugar de abandonar su concepto de red gestionada por Vax en tiempo compartido.

Pero la fuerza del cambio ha sido inexorable. En 1987, medidos en millones de instrucciones por segundo y dólar, los nuevos ordenadores de sobremesa basados en el microprocesador Intel 386 eran 90 veces más rentables que los ordenadores centrales. Los mainframes seguían siendo valiosos para el acceso rápido y repetido al disco y el procesamiento de transacciones para los bancos y las compañías aéreas. Pero los ordenadores pequeños irrumpían en todos los demás lugares. Las redes distribuidas entre pares de máquinas y servidores especializados eran cada vez más eficientes que las redes jerárquicas gestionadas por hosts de mainframes o miniordenadores. En muchas aplicaciones especiales, como el procesamiento de gráficos y señales, los microprocesadores integrados superan a los grandes sistemas informáticos. El ordenador con chip cuesta solo unos pocos dólares y supera con creces al ordenador de un pedestal.

La ley del microcosmos incluso invadió el santuario interior del legado de von Neumann: la organización de los propios ordenadores individuales. La necesidad de cambio se puso de manifiesto en el famoso superordenador Cray, que sigue funcionando con fuerza en los laboratorios de todo el mundo. A juzgar por sus superficies elegantes y sus impresionantes especificaciones en gigaflops (miles de millones de operaciones de coma flotante por segundo), el Cray parece ser de alta tecnología. Pero esconde el escándalo de la «alfombrilla»: retire el panel posterior y verá una pasta de alambres enredados de locos. La capacidad de estos cables (los electrones pueden viajar solo nueve pulgadas por nanosegundo) es el límite básico de la tecnología.

El mandato de Mead de ahorrar en los cables mientras proliferaban los conmutadores llevó inexorablemente a arquitecturas paralelas, en las que las tareas informáticas se distribuían entre un número cada vez mayor de procesadores interconectados en un solo chip o placa y estrechamente acoplados a memorias de estado sólido rápidas. Estas máquinas a veces superaban a los superordenadores de von Neumann en aplicaciones especializadas. Una victoria simbólica se produjo cuando HiTech, una máquina paralela hecha de$ Chips para aplicaciones específicas por valor de 100 000, desafiaron y, en general, superaron a los$ 15 millones de superordenadores Cray Blitz en el campeonato mundial de ajedrez para ordenadores.

A medida que los circuitos se hacen más densos, los costes disminuyen exponencialmente. La propia física de la informática dicta que la complejidad y las interconexiones (y, por lo tanto, la potencia computacional) pasen del sistema a chips individuales, donde cuestan unos pocos dólares y están disponibles para los emprendedores. Esta regla limita el futuro incluso de IBM. Ralph Gomory, científico jefe de IBM, pronosticó en 1987 que dentro de una década las unidades centrales de procesamiento de los superordenadores deberán concentrarse en un espacio de tres pulgadas cúbicas. El núcleo de los superordenadores de la década de 1990 será adecuado para un portátil.

Siguiendo los principios microcósmicos en la búsqueda de este objetivo, IBM se unió el pasado mes de diciembre a los capitalistas de riesgo y patrocinó una nueva empresa fundada por Steve Chen, un diseñador de ordenadores que se había separado de Cray. Chen planea utilizar un paralelismo masivo para multiplicar por cien la potencia de los superordenadores.

Partiendo de las tendencias actuales de forma conservadora, James Meindl, el magistral exdirector de los Laboratorios de Electrónica de Stanford, ha pronosticado que para el año 2000 estarán empaquetados mil millones de componentes en un solo chip. Eso significará una caída en el tamaño de los largometrajes hasta el cuarto de micrón profetizado por Carver Mead en 1968. Mil millones de transistores ofrecerán la potencia de cálculo de 20 CPU Cray 2 en un chip o 20 miniordenadores VAX con toda su memoria.

Sin embargo, este tipo de proyección supone pocos cambios en la arquitectura de von Neumann. Esa arquitectura se abandonará para muchos propósitos, lo que se traducirá en una mejora mucho mayor de la potencia del ordenador de lo que sugieren las estimaciones de Meindl. Pero habrá un límite de teclas: quédese con una ficha o un juego pequeño de fichas. En cuanto abandona el microcosmos, se mete en problemas graves. La física dicta que cuando el tamaño de las funciones disminuye, las tensiones necesarias disminuyen proporcionalmente, la velocidad aumenta proporcionalmente, el área necesaria para un elemento de cálculo cae geométricamente y la energía de conmutación y la disipación del calor caen exponencialmente. Todo mejora excepto los cables. Incluso para las conexiones integradas en el chip, la resistencia, la capacitancia y el retardo aumentan de acuerdo con el producto resistencia-capacitancia. En el caso de las comunicaciones fuera del chip, el retraso aumenta de forma exponencial catastrófica a medida que se reduce el tamaño de la función.

La restricción de la potencia de cálculo a uno o a muy pocos chips permitirá cumplir la promesa de la nueva tecnología. Con las redes de fibra óptica e incluso con las interconexiones superconductoras (recientemente se demostró en IBM y en varios otros laboratorios que superan a los hilos de fibra óptica en un factor de 100), podemos esperar con confianza el dominio de desafíos como el reconocimiento continuo de voz, los gráficos tridimensionales interactivos, los sistemas expertos complejos y el modelado en tiempo real de muchos procesos naturales.

Lo que no podemos esperar es un mando y un control centralizados. Las redes funcionarán principalmente para la comunicación de los resultados; solo a costa de enormes ineficiencias funcionarán para centralizar y coordinar la potencia de cálculo. Esta restricción probablemente prohíba un sistema de defensa estratégica centralizado, por ejemplo, pero permite redes locales de interceptores muy baratas y eficaces.

Por encima de todo, la ley del microcosmos significa que el ordenador seguirá siendo principalmente un aparato personal, no un aparato gubernamental o burocrático. La integración se realizará hacia abajo en el chip, no hacia arriba desde el chip. Las pequeñas empresas, los emprendedores, los inventores y los creadores se beneficiarán enormemente. Sin embargo, las organizaciones grandes y centralizadas tenderán a perder eficiencia y poder relativos.

Al predecir una convergencia continua del mundo de la informática con la industria de las telecomunicaciones, Ferguson da a entender que las tendencias oligopólicas de las telecomunicaciones prevalecerán en los ordenadores. Pero el flujo de influencia va en la otra dirección: la misma ley del microcosmos que está transformando la industria de la informática ya está sacudiendo la red telefónica. A pesar de estar afectado por reguladores obtusos que temen el monopolio, el establecimiento de telecomunicaciones está siendo objeto de graves ataques por parte de empresarios de la microelectrónica.

Una vez una pirámide controlada desde arriba, donde se concentraba la potencia de conmutación, el sistema telefónico se está convirtiendo en lo que Peter Huber, del Instituto de Manhattan, denomina una «red geodésica». Bajo la misma presión que describe Carver Mead en la industria de la informática, el mundo de las telecomunicaciones ha hecho un enorme esfuerzo para utilizar conmutadores baratos para ahorrar en la conexión por cable. Los sistemas de conmutación de paquetes, las centrales de sucursales privadas, las redes de área local, los edificios inteligentes y una variedad de nodos de conmutación inteligentes son formas de canalizar el creciente tráfico de comunicaciones hacia cada vez menos cables.

Como explica Huber, la estructura piramidal del sistema Bell solo era óptima mientras los interruptores fueran caros y los cables baratos. Cuando los conmutadores se hicieron mucho más baratos que los cables, un anillo horizontal se convirtió en la red óptima. A finales de 1987, los efectos de esta tendencia eran cada vez más evidentes. La red telefónica pública tenía unos 115 millones de líneas, mientras que las sucursales privadas tenían 30 millones de líneas. Pero el sistema público estaba prácticamente estancado, mientras que las PBX se multiplicaban a un ritmo de casi 20% un año. Además, cada vez más equipados con tarjetas de circuito que ofrecen alimentación de módem, fax e incluso PBX, los 33 millones de ordenadores personales que se utilizan en los Estados Unidos pueden funcionar como conmutadores de telecomunicaciones.

Los ordenadores personales no son terminales, en el sentido habitual, sino seminales, que están creando una red cada vez mayor de dispositivos microcósmicos. AT&T y las compañías regionales de Bell seguirán desempeñando un papel central en las telecomunicaciones (si se liberan de las arcaicas redes de regulación nacionales y estatales). Pero el crecimiento más rápido seguirá produciéndose en las fronteras empresariales, en los márgenes de la red. E invertidos por los poderes del microcosmos, los márgenes se centrarán cada vez más a medida que pase el tiempo.

Uno de los líderes del ataque a la pirámide de Bell es Jerry Sanders, de Advanced Micro Devices, que centra su empresa en el suministro de chips para los mercados de las telecomunicaciones. Sanders declaró una vez que los semiconductores serían el «petróleo de los ochenta». Ferguson, Reich y otros ahora temen o están a favor de que las gigantes corporaciones conspiran para monopolizar la producción de chips, como alguna vez la OPEP cartelizó la producción de petróleo. Predicen que, al dominar la tecnología y los suministros de fabricación avanzados, algunas empresas obtendrán las claves de las tecnologías dominantes de la era de la información.

Sin embargo, a diferencia del petróleo, que es un material que se extrae de la arena, los circuitos semiconductores están escritos en la arena y su sustancia son las ideas. El chip es un medio para guardar ideas, como un disquete, un CD-ROM (memoria de solo lectura en disco compacto), una película de 35 milímetros, un disco fonógrafo o un videocasete. Fabricar todos estos dispositivos cuesta unos pocos dólares en volumen y, en última instancia, todos se venden por el valor de su contenido, las imágenes e ideas que contienen. Un chip de memoria se vende por un par de dólares; un microprocesador cuya fabricación cuesta aproximadamente la misma cantidad puede venderse por una onza de oro. Un CD-ROM en blanco también cuesta un par de dólares, pero si contiene el sistema operativo de un nuevo mainframe de IBM, puede que Fujitsu tenga que pagar$ 700 millones por él. En el microcosmos, el mensaje sigue siendo mucho más importante que el medio.

Decir que los enormes conglomerados se apoderarán de la industria mundial de la información porque tienen las fábricas de chips más eficientes o el silicio más puro es como decir que los canadienses dominarán la literatura mundial porque tienen los árboles más altos.

Al evaluar las predicciones de los profetas del oligopolio, tenemos una prueba poderosa. La mayoría de la reciente oleada de predicciones se originó en 1985. Desde entonces, hemos sido testigos de tres años de cambios y turbulencias en la industria. Entre 1982 y 1987, surgió un récord de 97 compañías de semiconductores. Si los profetas tuvieran razón, estas empresas estarían en problemas hoy. Pero la gran mayoría ya son rentables, sus ingresos totales ahora se acercan$ 2000 millones y su ratio de éxito supera con creces el rendimiento de las empresas emergentes en el supuesto apogeo de la industria, entre 1966 y 1976. Según la mayoría de los estándares, la productividad media de los recién llegados es muy superior a la producción de las empresas establecidas.

Si los agoreros tuvieran razón, pocas de estas empresas podrían darse el lujo de construir fábricas de semiconductores. Pero en 1986 y 1987, se construyeron unas 200 minifábricas para fabricar semiconductores personalizados de última generación. Algunas de estas instalaciones ofrecen los procesos submicrométricos más eficientes y avanzados de la industria. Contrariamente a la opinión generalizada de que la industria requiere cada vez más capital, la eficiencia del nuevo equipo de producción supera con creces sus costes incrementales.

La medida adecuada de la producción en las tecnologías de la información no es la producción de «chips» ni siquiera de «ordenadores». Los chips duplican su capacidad cada dos o tres años y los ordenadores ganan energía a un ritmo similar, solo un poco retrasado por el lento avance del software. La mejor medida tampoco es la producción total de los transistores; aunque este índice representa una mejora con respecto a las ventas unitarias de chips, pasa por alto los avances en el diseño. El estándar adecuado tampoco es la producción en dólares, ya que el coste por unidad se desploma mientras que el valor real de la producción se dispara. La medida correcta es la funcionalidad o la utilidad para el cliente.

Al ofrecer funciones de forma económica al cliente, el nuevo equipo de producción de semiconductores avanza cada año de manera decisiva con respecto a sus predecesores. Por ejemplo, Chips & Technologies, fundada en 1985, es la empresa de más rápido crecimiento de la historia del sector. Sus ventas por empleado son algunas$ 650 000, o cuatro veces el nivel de la mayoría de las empresas establecidas. Su producto es una serie de conjuntos de chips para clonar ordenadores basados en IBM AT y 386 con una pequeña fracción del número de chips que utiliza IBM. Esta innovación permitió a Tandy, PCs Limited y otras empresas estadounidenses recuperar la cuota de mercado dominante con clones de ordenadores estándar de IBM. Junto con otra empresa emergente llamada Weitek (que ofrece coprocesadores matemáticos rápidos), Chips & Technologies también ayudó a Compaq a mantener la delantera frente a IBM y a los japoneses. Compaq es ahora un$ 1200 millones de negocios.

Chips & Technologies y Weitek han evitado la fabricación directa de patatas fritas y han cedido su producción a empresas japonesas y estadounidenses que tienen un exceso de espacio de fabricación. Pero otras empresas emergentes, como Cypress, Performance Semiconductor e Integrated Device Technology, han creado algunas de las fábricas más avanzadas de la industria. El ciprés de Lamond, atacado por Sanders, ha arrasado con decisión por el$ Barrera de 50 millones. Xicor ha dominado un proceso de producción de memorias no volátiles que, hasta ahora, ha desafiado los esfuerzos de Intel y los japoneses. Y Micron Technology, una empresa emergente de los ochenta que estuvo a punto de desaparecer por el exceso de DRAM de 1985 y 1986, ha realizado varias innovaciones clave en los procesos (reduciendo el tamaño y el número de capas de una DRAM a unas 40)% por debajo de la mayoría de sus rivales) y mantiene los costes de producción por debajo de los de la competencia japonesa.

El primer chip exitoso de mil millones de componentes se diseñará, simulará y probará en un superordenador de escritorio masivamente paralelo que ofrecerá una funcionalidad que superará con creces su coste. Esos 20 crays de potencia de cálculo harán que el chip sea incomparablemente más potente que los microprocesadores actuales, que requieren decenas de diseñadores para crear y están construidos en un$ Fábrica de 150 millones. Se fabricará con un sistema láser de escritura directa o con un paso a paso de rayos X que, dólar por dólar, superará con creces a sus predecesores.

No cabe duda de que todas las revistas de negocios seguirán hablando del increíble gasto que supone construir y equipar una planta de semiconductores; la escalonadora de rayos X, por ejemplo, costará tres o cuatro veces más de lo que cuesta la grapa litográfica actual. Pero en cuanto a la producción funcional por dólar de inversión, la fábrica del año 2000 será inmensamente más eficiente que la fábrica de Goliat que fabrica DRAM en la actualidad. Según la ley del microcosmos, la industria seguirá siendo más productiva en el uso del capital y cada vez más intensiva en su dominio de la promesa de la tecnología de la información.

Por último, si los agoreros tuvieran razón, los Estados Unidos seguirían perdiendo cuota de mercado mundial de la electrónica. Sin embargo, desde 1985, las empresas estadounidenses han ido ganando cuota de mercado de manera constante en la mayor parte de la industria de la informática y más que manteniendo la suya en los semiconductores. A mediados de 1987, el mercado abierto estadounidense de semiconductores (excluyendo a IBM y otros productores cautivos que consumen un tercio de la producción estadounidense) volvió a superar el tamaño total del mercado japonés (los japoneses no tienen ninguna empresa catalogada como cautiva). Un año de liderazgo japonés en ese índice dio lugar a muchas profecías fatales para las empresas mercantiles estadounidenses.

La campaña por predecir la caída del emprendimiento crónico sigue con fuerza en los círculos intelectuales. A muchos críticos del capitalismo les molesta que desafíe los estándares académicos o sociales de la meritocracia. William Gates, el fundador de Microsoft, dejó Harvard definitivamente durante su segundo año. El sistema suele dar el dominio económico a las personas que llegaron a nuestras costas como inmigrantes con pocos conocimientos de inglés, a todos los nerds y expertos despreciados en el baile de graduación o en el cotillón de Hierba. Algunos académicos mantienen una mentalidad aún perseguida por el fantasma del marxismo. Pero el emprendedor sigue siendo la fuerza impulsora del crecimiento económico en todas las economías vibrantes, incluida la economía estadounidense, la más vibrante de todas.

1 La queja de Sanders aparece en el artículo de HBR de Alex d’Arbeloff y Frederick Van Veen, «Dejen de gravar el talento de las grandes empresas», mayo-junio de 1986, pág. 38.

2 Su tesis en el MIT, Competencia internacional, comportamiento estratégico y política gubernamental en las industrias de la tecnología de la información, abarca sus ideas.