El archipiélago de la información: mapas y puentes
por James L. McKenney, F. Warren McFarlan
El vicepresidente de servicios de una gran empresa de fabricación de bienes duraderos se enfrentó recientemente a un dilema. Su solicitud de un procesador de textos independiente para resolver los problemas de funcionamiento en su oficina de ventas de más rápido crecimiento había sido denegada. Parecía una solicitud trivial; sin embargo, tener que prescindir del procesador de textos provocaría retrasos y pensó que la decisión sentaba un precedente peligroso. La razón que el departamento de contabilidad adujo para denegar la máquina fue su incompatibilidad con la red de servicios de información de la división. Cuando lo cuestionó, se produjo una serie incomprensible de argumentos técnicos que parecían no tener relación con su verdadero problema de productividad. ¿Debería hacer cola, impugnar la decisión o volver a presentar la solicitud como gasto operativo en lugar de como gasto de capital?
Una importante empresa de fabricación ha reducido la capacidad de procesamiento y la plantilla de su centro de procesamiento de datos corporativo en un 60%% en los últimos cuatro años. Sin embargo, los centros de datos de las divisiones han crecido hasta tal punto que los gastos totales de procesamiento de datos corporativos han aumentado más del 50%% durante el período.
Tras un análisis cuidadoso, los altos directivos de una compañía de seguros descentralizada recomendaron la disolución ordenada de la empresa$ 25 millones de centros de datos y la creación de ocho centros de datos más pequeños y diversificados en un período de 30 meses.
Estos incidentes reales no son inusuales. En repetidas ocasiones durante los últimos diez años, el cambio tecnológico ha hecho que las estructuras organizativas de los servicios de información queden obsoletas en muchas empresas y ha obligado o obligará a una importante reorganización. Hay varias razones para ello.
En primer lugar, por motivos de eficiencia y eficacia, en la década de 1980 los servicios de información debían incluir la automatización de oficinas, las telecomunicaciones (comunicaciones de datos y voz) y el procesamiento de datos; y estos servicios debían gestionarse de manera coordinada y, en muchas empresas, integrada. Esta coordinación no es fácil en muchas organizaciones, ya que cada una de estas actividades en las décadas de 1960 y 1970 no solo tenía diferentes bases técnicas, sino que también se promocionaba para la empresa por separado. Además, las estructuras organizativas y las prácticas que se desarrollaron para gestionar las tecnologías son muy diferentes de las que se necesitan ahora. Los diferentes historiales gerenciales y hábitos de toma de decisiones asociados a cada una de estas tecnologías hacen que la integración hoy en día sea excepcionalmente difícil.
En segundo lugar, cada vez está más claro que las tecnologías de servicios de información que son nuevas para la organización requieren enfoques de gestión diferentes a los de las tecnologías con las que la organización tiene más experiencia. Por ejemplo, los problemas de implementar nuevos proyectos de tecnología de automatización de oficinas son muy diferentes de los asociados con tecnologías más avanzadas.
En tercer lugar, las empresas deben replantearse el lugar que ocupan los recursos de datos y hardware de los ordenadores en la organización de la empresa. Las drásticas mejoras en el coste y el rendimiento del hardware de las tres tecnologías en la última década permitieron abordar este problema en la década de 1980 de una manera muy diferente a la de principios de la década de 1970.
Estas mejoras se han producido a medida que los ordenadores han pasado de los tubos de vacío a los circuitos integrados a gran escala. Estos cambios tecnológicos siguen mejorando la productividad a medida que se desarrollan circuitos más pequeños, fiables y útiles. En la ilustración I se muestran las tendencias de los costes por unidad y circuito individuales en los últimos 20 años, tendencias que se mantendrán durante la próxima década. La reducción de costes y los aumentos de capacidad provocados por estos cambios han reducido el coste del hardware del ordenador como una fracción del coste total del departamento de DP a menos del 30%% en la mayoría de las grandes instalaciones de procesamiento de datos.
Anexo I Costes y rendimiento de la electrónica Fuente: W.D. Fraser, «Posibles implicaciones tecnológicas para los ordenadores y las telecomunicaciones en la década de 1980», IBM System Journal, vol. 18, n.º 2, 1979, pág. 333.
Hoy en día, el coste de los ordenadores no suele superar los gastos de las telecomunicaciones corporativas (incluido el teléfono) y, para muchas empresas, es mucho inferior a los gastos de desarrollo y mantenimiento del software. Igual de importante es que la tecnología ha permitido desarrollar sistemas de miniordenadores independientes o sistemas de automatización de oficinas que las empresas pueden personalizar para ofrecer un servicio específico para cualquier ubicación deseada.
Esta tecnología mejorada ha provocado un cambio drástico tanto en los tipos de servicios de información que se prestan a los usuarios como en la mejor estructura organizativa para prestarlos. La estructura más deseable ha implicado y seguirá implicando no solo la coordinación del procesamiento de datos, el teleprocesamiento y la automatización de oficinas, sino también la redistribución física y organizativa de los recursos técnicos y de personal de la empresa que prestan servicios de información. Por recursos técnicos, nos referimos a ordenadores, procesadores de texto, centrales telefónicas privadas, terminales «inteligentes», etc. En los recursos de personal, incluimos a todas las personas responsables del funcionamiento de estas máquinas o del desarrollo y el mantenimiento de nuevas aplicaciones.
Fusión de la tecnología de las Islas del Estado Islámico
Los problemas para integrar rápidamente las tres tecnologías, el procesamiento de datos, las telecomunicaciones y la automatización de oficinas, se deben en gran medida a que su gestión ha sido históricamente muy diferente (como se muestra en el gráfico II). Analicemos estas diferencias.
Exposición II: Islas de tecnología
En 1920, en la mayoría de las organizaciones, el director y su secretaria contaban con el apoyo de tres tipos de servicios de información, cada uno basado en una tecnología diferente. Para el procesamiento de textos, se utilizaba la máquina de escribir para generar palabras fácilmente legibles. Un archivador servía como principal dispositivo de almacenamiento para la producción de papel, y las distintas unidades organizativas estaban conectadas por secretarias que trasladaban el papel de una unidad a otra.
El procesamiento de datos, si es que se automatizaba, dependía de las máquinas clasificadoras de cartas para elaborar sumas y saldos utilizando tarjetas perforadas como entrada. Las tarjetas servían de memoria para este sistema. El sistema de telecomunicaciones estaba compuesto por cables y mensajes que eran manipulados por el operador mediante el control de los interruptores electromecánicos. Este sistema de telecomunicaciones no tenía capacidad de almacenamiento.
En 1920, los diseñadores organizativos de cada una de las tres islas desempeñaban funciones muy diferentes, como se muestra en la prueba III. Para el procesamiento de textos, el director de la oficina dirigió el diseño, muy influenciado por los deseos de su gerente. Aunque los sistemas de oficina formales estaban empezando a surgir, el procesamiento de textos siguió siendo principalmente un medio para facilitar la labor de secretaría. La principal forma de obtener nuevos equipos era a través de agentes de compras e implicaba la selección de máquinas de escribir, dictáfonos y archivadores de una amplia variedad de empresas medianas. La estandarización no era fundamental.
Prueba III La evolución de las islas de tecnología
El procesamiento de datos era el dominio del controlador y contador, y la actividad de diseño de sistemas la realizaba el jefe de contabilidad o un gerente de sistemas de tarjetas, que establecía los protocolos para el flujo del procesamiento de la información. Los sistemas de máquinas para el procesamiento de datos eran tan complejos y relativamente caros que los gerentes tuvieron que desarrollar un plan para su uso. Las telecomunicaciones no tenían componentes de diseño ni planificación, ya que estas funciones las desempeñaban las compañías telefónicas.
A partir de la década de 1920, los servicios de procesamiento de datos (es decir, las máquinas clasificadoras de tarjetas) normalmente se compraban y mantenían como un sistema de un proveedor, de modo que desde el principio existió una relación de sistemas entre el comprador y el vendedor. Sin embargo, el teleprocesamiento (teléfonos) era un servicio adquirido que no requería ninguna inversión de capital. Por lo tanto, las tres islas tenían un servicio diferente en 1920: una por muchas empresas, otra por un proveedor de sistemas y otra por una empresa de servicios públicos.
En 1965, el servicio y la gestión de las tres islas seguían funcionando según el modelo de 1920. El procesamiento de textos seguía siendo influenciado en gran medida por el gerente y se centraba en la secretaria. Los servicios como las máquinas de escribir y los sistemas de reproducción (mimeógrafos, por ejemplo) se adquirieron como unidades independientes a una serie de competidores que ofrecían una tecnología similar. Había poca planificación a largo plazo y los sistemas que existían evolucionaron en respuesta a las nuevas máquinas disponibles.
Sin embargo, el procesamiento de datos se había convertido en un proceso cada vez más complejo. En ese ámbito, los sistemas y la planificación estaban dominados por la necesidad de una evaluación seria de las principales inversiones de capital en ordenadores y software, así como de los proyectos de varios años. Además, para que las empresas pudieran aprovechar la productividad del nuevo sistema, todos los empleados y usuarios tuvieron que someterse a una amplia formación. A veces, como en el ejemplo de la compañía de seguros al principio de este artículo, incluso se cambió la organización corporativa para adaptarse al nuevo potencial y los nuevos problemas causados por la tecnología informática. Sin embargo, en lo que respecta a las comunicaciones, en 1965 AT&T seguía dominando por completo la oferta de servicios; el equipo que compraba una empresa determinaba la forma en que se gestionaba el servicio. En algunas organizaciones, gestionar las comunicaciones implicaba colocar relojes de arena de tres minutos junto a los teléfonos para que los empleados redujeran la duración de sus llamadas.
Sin embargo, en 1980, las preocupaciones de la dirección por el procesamiento de textos y el teleprocesamiento se habían integrado con las del procesamiento de datos por dos razones importantes. En primer lugar, ambas áreas requieren ahora grandes inversiones de capital, grandes proyectos, implementaciones grandes y complejas y una amplia formación de los usuarios. Sin embargo, los directores de estas actividades suelen carecer de la experiencia necesaria para gestionar este tipo de problemas.
En cuanto a la automatización de oficinas, un problema especial ahora es el paso de varios proveedores y un coste individual relativamente bajo a, en muchos casos, un solo proveedor que proporcionará soporte integrado a muchas unidades mediante una gran compra de capital. El tamaño de la compra es varios órdenes de magnitud mayor y las aplicaciones son mucho más complejas que las de hace una década.
En cuanto a las telecomunicaciones, ahora los gerentes tienen que dejar de depender de un servicio comprado en una empresa de servicios públicos y buscar múltiples fuentes para realizar grandes inversiones de capital en equipos. Estos avances en el procesamiento de textos y el teleprocesamiento representan un cambio radical con respecto a las prácticas anteriores y crean la necesidad de nuevas habilidades de gestión, que se añadieron a la función de procesamiento de datos hace años.
La segunda razón para vincular el procesamiento de textos y el teleprocesamiento al procesamiento de datos es que los sectores clave de los tres componentes (el procesamiento de datos, el teleprocesamiento y la automatización de oficinas) están cada vez más conectados físicamente en una red; por lo tanto, los gerentes no pueden abordar los problemas de un componente de forma independiente de los de los otros dos. Por ejemplo, en una empresa de fabricación, durante un período de 24 horas, se utiliza la misma línea WATS para la transmisión de voz, las comunicaciones de datos en línea y un sistema de conmutación de mensajes de correo electrónico.
La situación se complica por el hecho de que en 1982 un proveedor dominante en cada una de las tres islas de tecnología intenta comercializar sus productos como base tecnológica a partir de la cual una empresa puede desarrollar su automatización coordinada de las demás islas. IBM, por ejemplo, está ampliando su base de procesamiento de datos a varios productos de apoyo a la automatización de oficinas y las comunicaciones. AT&T amplía su base de comunicaciones a los productos que apoyan el procesamiento de datos y la automatización de oficinas, y Xerox amplía su estrategia de automatización de oficinas a las comunicaciones y la DP.
No abordar el tema de la fusión de tecnologías representa un gran riesgo para la organización. En los próximos años, creemos que la mayoría de las organizaciones consolidarán al menos el control de las políticas, y quizás también la gestión, de las tres islas en una sola unidad de servicios de información. Los principales motivos de esta medida son los siguientes:
1. Las decisiones en cada área ahora implican grandes cantidades de dinero y complejas evaluaciones técnicas y de costes.
2. Los tipos de habilidades analíticas y de gestión de proyectos y el personal necesarios para planificar e implementar las aplicaciones son similares para cada una de estas tecnologías.
3. Muchos sistemas requieren la combinación de estas tecnologías en redes que gestionen la informática, las telecomunicaciones y la automatización de oficinas de forma integrada.
Una empresa puede seguir varios caminos para fusionar las tres islas de tecnologías a medida que avanza hacia una única función de servicios de información. Analizaremos los tres enfoques más comunes y prácticos.
DP y telecomunicaciones
En muchas organizaciones más grandes, el procesamiento de datos y el teleprocesamiento de datos se fusionaron bajo el liderazgo de DP hace algunos años. En estos casos, el personal del DP tenía que familiarizarse con los aspectos técnicos de la comunicación de datos. A principios de la década de 1970, los problemas técnicos eran formidables y técnicamente había una separación clara entre la transmisión de voz y la de datos. Pero a mediados de la década de 1970, los cambios técnicos en los sistemas de telecomunicaciones permitieron tratar la voz y los datos de manera similar, de modo que se podía utilizar la misma línea para voz y datos sin necesidad de un equipo especial. Sin embargo, en varias dimensiones no técnicas, inicialmente las comunicaciones de voz y datos seguían planteando problemas de gestión distintos: el teléfono (voz) seguía formando parte de una empresa de servicios públicos cuidadosamente regulada y requería poca planificación de compra y uso, mientras que las comunicaciones de datos, vendidas por muchos vendedores, exigían medios cada vez más sofisticados para evaluar las inversiones de capital.
A medida que el mercado de las comunicaciones de datos se ha expandido, las ventajas económicas de fusionar las comunicaciones de voz y datos, por ejemplo, en la línea WATS, se han hecho significativas. En 1982, la tendencia es a fusionar las políticas y operaciones de comunicación de voz y datos en una sola unidad, normalmente ubicada en el departamento de DP. Por ejemplo, un banco grande instaló recientemente una red integrada para reemplazar las redes de voz y datos que antes estaban separadas. El sistema redujo un 35% la factura de comunicación del banco% y un servicio mejorado tanto para la instalación de procesamiento de datos como para el sistema telefónico.
Telecomunicaciones y automatización de oficinas
La nueva tecnología ha facilitado la unión del procesamiento de textos y la automatización de oficinas con las telecomunicaciones. Los diseñadores de equipos de procesamiento de textos ahora incluyen en sus máquinas la capacidad de comunicarse tanto con otras máquinas como con los dispositivos de almacenamiento a través de sistemas de telecomunicaciones. Con estas funciones, los procesadores de texto ya no son simples máquinas de escribir automatizadas, sino enlaces a archivos de almacenamiento de textos, otros empleados y archivos de datos. El proceso de comunicación se ha acelerado enormemente gracias al desarrollo de la capacidad de almacenamiento de las telecomunicaciones, que permite al remitente dejar los mensajes. En muchas oficinas, esta capacidad ha igualado o superado en importancia el uso del procesamiento de textos, pero el potencial real de estos vínculos solo se aprovecha parcialmente en la actualidad. El desarrollo de este potencial se ralentiza cuando las telecomunicaciones y la automatización de oficinas dependen de partes muy separadas de la empresa.
DP y automatización de oficinas
Hoy en día, en muchas empresas, los directores de DP, innovadores desde el punto de vista tecnológico, vinculan su procesamiento de datos y su procesamiento de textos extendiendo sus terminales de DP a sitios remotos. A medida que estas empresas empezaron a mover palabras (en lugar de solo datos numéricos) a través de los ordenadores de un sitio a otro, surgió la demanda de sistemas que almacenaran y reenviaran grandes volúmenes de palabras a otros sitios.
A menudo, los empleados utilizaban los terminales remotos más para comunicaciones de palabra que para comunicaciones de datos. Pronto DP asimiló todas las comunicaciones, voz y datos, así como el procesamiento de textos. El éxito de este acuerdo depende de si la organización madura de DP puede fomentar las nuevas tecnologías en lugar de asfixiarlas con controles excesivos.
En resumen, en la actualidad son posibles varios patrones organizativos a medida que las empresas avanzan hacia la adopción y la combinación de todos los servicios de información. Esta heterogeneidad es transitoria y, con el tiempo, la mayoría de las empresas fusionarán la administración de estas islas en una sola organización, sin duda para la formulación de políticas, la planificación y el control, y en muchos entornos para el control y la ejecución de las líneas. El momento de estas mudanzas en cualquier organización depende de factores como la estructura corporativa y el estilo de liderazgo, la velocidad con la que la empresa suele adoptar las nuevas tecnologías, la flexibilidad en las asignaciones del personal (por ejemplo, para eliminar madera muerta) y las prioridades de desarrollo actuales.
Fases de la asimilación
La fusión de las tres tecnologías se complica debido a la necesidad de los gerentes de adoptar diferentes enfoques para una tecnología en particular a medida que su organización adquiere experiencia con ella. Por ejemplo, el enfoque de planificación y uso de tecnología DP relativamente madura, como los nuevos sistemas por lotes, puede resultar inapropiado para la nueva automatización de oficinas o las nuevas tecnologías de DP. El hecho de no reconocer esta diferencia ha llevado a una mala gestión de los principales proyectos y a la pérdida de oportunidades de proyectos que deberían haberse iniciado, pero que no lo hicieron porque nadie sabía lo suficiente sobre la tecnología como para darse cuenta de las posibilidades.
Las organizaciones cambian mucho más despacio que la tecnología. Como demostraron Richard L. Nolan y Cyrus F. Gibson para el procesamiento de datos, una organización pasa por etapas en la asimilación de la tecnología.1 Los trabajos recientes en automatización de oficinas y procesamiento de datos han revelado que este modelo es un caso especial de la situación del ciclo de aprendizaje que consiste en adaptar una tecnología a las necesidades de la organización.2 Un estudio reciente realizado en 37 empresas demuestra que las empresas han sido sorprendentemente deficientes a la hora de transferir las habilidades aprendidas en la gestión de las etapas del DP a la automatización de oficinas, 30 de las cuales no se basaron en su experiencia en tecnología de DP al pasar al procesamiento de textos y la automatización de oficinas.3 Igual de importante es que más de dos tercios no habían superado la segunda fase de Nolan, de automatización de oficinas de tareas y experimentación con respecto al procesamiento de textos, y se encontraban en un estado de desarrollo detenido.
Otro estudio sobre el uso de las tecnologías de servicios de información por parte de una organización en los tres componentes encontró cuatro fases de la evolución que se relacionan tanto con las etapas originales de Nolan como con los conceptos de cambio organizacional desarrollados por Edgar H. Schein.4 Estas fases se pueden caracterizar como (1) inicio de la inversión o el proyecto, (2) el aprendizaje y la adaptación de la tecnología, (3) el control de la gestión y (4) la transferencia generalizada de tecnología (consulte el gráfico IV). Además, hay que gestionar el uso de la tecnología o la innovación se estancará.
Anexo IV Uso de la tecnología en una empresa
La primera fase comienza con la decisión de invertir en una tecnología de procesamiento de la información que sea nueva para la organización e incluye uno o más proyectos complementarios, además de la formación de los usuarios. Por lo general, sigue la segunda fase, a menos que se produzca un desastre en la fase 1, como un fallo del proveedor o una mala participación de los usuarios. Este revés provoca una fase retrasada, que se muestra como estancamiento A en la prueba IV.
La mayoría de las empresas estancadas A decidieron «desinvertir» en el sistema porque aumentaba el empleo y ofrecía pocos beneficios. Las causas fueron la falta de atención de la dirección, una gestión de proyectos incompetente, problemas técnicos importantes e imprevistos o una mala elección del hardware. Los directivos suelen tardar en reconocer los problemas que conducen a este tipo de estancamiento.
La complejidad y el tiempo necesarios para implementar una nueva tecnología de la información normalmente impiden el descubrimiento del fallo en desarrollo durante 18 a 36 meses. El proyecto no suele ser un desastre tecnológico evidente, sino más bien una situación ambigua que los directivos consideran que añade más trabajo a la organización, con pocos beneficios mensurables. Por lo tanto, rechazan el sistema.
Todos los proyectos estudiados que estaban estancados en el estancamiento A tenían sobrecostes significativos. Cada fracaso creó ansiedad e impidió cualquier impulso coordinado. Las organizaciones congeladas en este estado suelen acabar comprando más servicios en función de una tecnología conocida y se vuelven expertas en adaptarla a su uso; por ejemplo, podrían intentar trabajar con los informes de ventas por lotes en lugar de aprender a utilizar las actualizaciones de ventas en línea. Por lo general, un retraso de dos años sigue a este estado de estancamiento antes de que se vuelvan a intentar nuevas inversiones en esta tecnología, a menudo junto con un cambio total de personal.
La segunda fase de la adaptación de la tecnología a una organización implica aprender a utilizarla para tareas más allá de las mencionadas en la propuesta inicial. En ninguno de los sitios de automatización de oficinas estudiados se implementó la tecnología según lo previsto originalmente. En cada caso, los directivos aprendieron mucho durante la implementación. Si la segunda fase se gestiona de manera que los directores puedan desarrollar y perfeccionar su nueva comprensión de esta tecnología, la organización pasa a la fase 3. Si no se aprende de las primeras aplicaciones y no se difunde este aprendizaje de manera eficaz, se lleva al estancamiento B (consulte la prueba IV).
Una gran empresa de fabricación sufrió un gran bloqueo de asimilación durante la automatización de las actividades de procesamiento de textos administrativos que estaban bajo el control de una función contable muy consciente de los costes. Con un enfoque muy conservador de la tecnología de procesamiento de datos, la empresa introdujo el procesamiento de textos para ahorrar costes administrativos en los envíos masivos de correos y la facturación a los clientes.
Tras desarrollar esta aplicación de procesamiento de textos limitada para reducir los costes, el departamento de contabilidad no mostró interés en ampliar su alcance más allá de la simple automatización de la función de mecanografía repetitiva de una máquina de escribir. Hizo que escribir consumiera más capital y solo tocó 2% a 5% de las posibles mejoras en la productividad. Centrarse únicamente en los costes administrativos estableció un nicho para la automatización de oficinas que era trivial en relación con su potencial.
La fase 3 normalmente implica un cambio en la organización (cuando una empresa llegaba a este punto, por ejemplo, transfería proyectos que utilizaban una tecnología de un grupo de sistemas empresariales a un grupo orientado al control), una evolución continua de los usos de la tecnología y, lo que es más importante, el desarrollo de controles precisos para guiar el diseño y la implementación de los sistemas que utilizan estas tecnologías y garantizar que las aplicaciones posteriores sean más rentables que las primeras. Si, en esta fase, el control de la eficiencia no es lo más importante y se deja espacio para objetivos más amplios, la organización pasa a la fase 4, que implica una comunicación amplia y la difusión de la tecnología a otros grupos de la organización.
El estancamiento C se produce cuando una empresa desarrolla controles que son tan onerosos que inhiben la difusión legítima y rentable del uso de la tecnología. Un ejemplo de este bloque con respecto al procesamiento de datos es una empresa de fabricación que se centralizó a gran escala con sistemas de entrada distribuidos. Para justificar el gasto, se centró en aprovechar todas las ventajas de un taller de producción estandarizado y altamente eficiente. En este proceso, la organización perdió el entusiasmo por la innovación y el cambio con respecto a esta tecnología y desalentó activamente a los usuarios. Además, los rigurosos protocolos de estos programas estándar irritaron a los usuarios y ayudaron a sentar las bases para que las oficinas locales experimentaran subrepticiamente con la automatización, la primera fase de una tecnología diferente. El primer incidente que describimos al principio de este artículo fue de esa empresa.
A medida que pasa el tiempo, surgen nuevas tecnologías que ofrecen la oportunidad de pasar a nuevas áreas de aplicación o de reestructurar las antiguas (consulte el gráfico IV). Por lo tanto, cada uno de los tres componentes de los servicios de información implica oleadas de nuevas tecnologías, y las empresas deben adoptar continuamente diferentes enfoques para gestionarlas y asimilarlas, ya que cada componente de la tecnología se encuentra en una fase diferente.
Por ejemplo, en 1981, una empresa de fabricación estaba en la fase 4 en términos de su capacidad para planificar y gestionar las mejoras de sus sistemas de lotes a lo largo de un período de años. Al mismo tiempo, estaba en la fase 3 en términos de organización de los protocolos para consolidar el control sobre la eficiencia de sus sistemas de consulta y datos en línea, cuyo crecimiento se había disparado en los últimos años. Por último, había realizado una inversión en varios sistemas de procesamiento de textos y estaba claro que se encontraba en la fase 1 con respecto a esta tecnología.
Por lo tanto, a medida que las islas tecnológicas se fusionan, los directivos no deben intentar utilizar el mismo enfoque con las tecnologías que se encuentran en diferentes fases. Un desajuste puede ser motivo para cambiar la velocidad de la reorganización.
Las principales implicaciones de estas fases para las organizaciones de las tecnologías de TI incluyen las siguientes:
1. Siempre que sea posible desde el punto de vista operativo, las tecnologías de las fases 1 y 2 deben mantenerse separadas organizativamente de las tecnologías de las fases 3 y 4 para que los objetivos de eficiencia de una no disminuyan la eficacia de la otra.
2. La plena integración operativa de las tecnologías de TI tardará mucho en madurar; es posible que las empresas tengan que tolerar cierto desorden durante la integración para adquirir experiencia técnica.
3. Dispersar la tecnología en manos de los usuarios en la fase 2 puede ser apropiado (aunque ineficiente). Sin embargo, los gerentes podrían establecer un control más estricto después de la dispersión original y realizar cambios organizativos en una fase posterior.
Patrones de distribución
A medida que las tres islas de la tecnología se unen y surgen la estructura y los procedimientos para gestionar las fases de la asimilación de la tecnología, la pregunta que queda es dónde deben ubicarse los elementos de datos y hardware en la organización. En un extremo está la empresa que tiene un gran centro centralizado conectado mediante enlaces de telecomunicaciones a dispositivos remotos de entrada y salida. En el otro hay un centro pequeño, o ninguno, con la mayoría o todos los datos y el hardware distribuidos a los usuarios. También existen alternativas intermedias.
En el pasado, los costes del hardware influían en gran medida en la resolución de este problema organizacional. Como el coste por operación aritmética era más alto para el hardware pequeño (que para el hardware grande) a principios de la década de 1960, las primeras grandes inversiones en informática se consolidaron en grandes centros de datos. Por el contrario, la rápida caída de los costes del hardware y la introducción del miniordenador y el microordenador a principios de la década de 1980 permiten, pero no exigen, alternativas organizativas rentables.
Para mantener sus cuotas de mercado a medida que se reduce la diferencia de eficiencia entre los ordenadores grandes y pequeños, los vendedores de ordenadores grandes sugieren que muchos miembros de una organización necesiten acceder a los mismos archivos de datos de gran tamaño; de ahí que, según ellos, la estructura de IS ideal sea una gran unidad central de procesamiento con enormes archivos de datos conectados por una red de telecomunicaciones a una amplia gama de dispositivos inteligentes (a menudo a grandes distancias). Si bien esto es cierto en muchas situaciones, para algunas empresas, lamentablemente, el problema es más complejo, como veremos más adelante. Los factores que influyen en la decisión final sobre la estructura incluyen el control de la gestión, la tecnología, los datos, los servicios profesionales y la adaptación organizacional (consulte el gráfico V).
Prueba V Presiones sobre la colocación de la función IS
Presiones hacia un centro central
Múltiples presiones, tanto reales como ilusorias, pueden hacer que las empresas utilicen un gran centro con una red distribuida.
Necesidad de control de gestión.
La capacidad de atraer, desarrollar, gestionar y mantener al personal y los controles para garantizar un funcionamiento rentable y de alta calidad de los sistemas es una razón de peso para tener una unidad central sólida. Una sola unidad grande permite un funcionamiento más profesional, económico y de mayor calidad que una serie de unidades mucho más pequeñas. Estas ventajas hicieron que la principal empresa descentralizada mencionada al principio de este artículo conservara su centro de datos corporativo en lugar de trasladarse a centros regionales. La empresa no estaba convencida de que se pudieran gestionar ocho centros de datos pequeños con la misma eficiencia en conjunto y, aunque pudieran, de que valiera la pena el coste y el trauma de hacer la transición.
Hay mejores copias de seguridad disponibles a través de varias unidades centrales de procesamiento en un solo sitio. Cuando se produce un fallo de hardware en una CPU, se pulsa un botón para cambiar la red de una máquina a otra. Obviamente, esto no aborda la posibilidad de que un desastre ambiental afecte a todo el centro.
Tecnología disponible.
La disponibilidad de una capacidad de procesamiento a gran escala para los usuarios que solo la necesitan de vez en cuando es otra razón importante para que una empresa tenga un centro grande. En una época en la que hay ordenadores más baratos y potentes, es más fácil para los usuarios visualizarse haciendo algunos de sus cálculos en su propio ordenador personal, como un Apple o un miniordenador independiente. Sin embargo, al mismo tiempo, algunos usuarios tienen otros problemas, como la necesidad de grandes modelos de programación lineal y programas de mapeo de yacimientos de petróleo, que requieren la mayor capacidad de cálculo disponible. En esos casos, cuanto mayor sea la capacidad de ordenador disponible, más detalles podrá incorporar la empresa de forma rentable a sus programas de ordenador.
Además, muchas empresas ven la oportunidad de gestionar la computación agregada de manera más eficiente y, por lo tanto, reducir los gastos de hardware. Con muchas máquinas en la organización y cada una cargada hasta 70%, los gerentes pueden pensar que la consolidación utilizaría mejor la potencia de procesamiento disponible. Aunque está claro que fue una cuestión de costes importante en la década de 1960, es prácticamente irrelevante en la década de 1980.
Control de los datos.
Otro argumento a favor del gran centro central es la posibilidad que ofrece a los usuarios de controlar el acceso a los archivos de datos corporativos más comunes según lo necesiten. Este acceso, absolutamente esencial desde los primeros días para organizaciones como compañías aéreas y ferrocarriles, ahora es económicamente factible en muchas otras empresas debido a la fuerte reducción de los costes de almacenamiento y procesamiento.
Servicios de personal.
El numeroso personal que se necesita en un importante centro de datos de SI brinda la oportunidad de atraer a personal técnico especializado y hacer frente a los desafíos. La oportunidad de trabajar en una variedad de problemas y de compartir conocimientos con otros profesionales proporciona el aire de entusiasmo necesario. Contar con estas habilidades en la organización también permite a las unidades individuales realizar tareas complejas según sea necesario sin correr el riesgo de un uso incontrolado. Además, dado que estas habilidades suelen escasear, consolidarlas en una sola unidad permite un mejor despliegue desde una perspectiva corporativa. Por último, los recursos de un grupo grande en un centro permiten adaptarse más cómodamente a los inevitables problemas de rotación; la renuncia de una persona de un grupo de tres personas de un sistema descentralizado normalmente es más disruptivo que la de cinco personas que abandonan un grupo de cien profesionales.
Ajuste organizativo.
En una organización centralizada, los factores que se acaban de mencionar cobran especial importancia, ya que conducen a una buena adaptación entre la estructura de TI y la estructura corporativa general y ayudan a eliminar las fricciones para las organizaciones en las que el hardware de TI se introdujo de forma centralizada y cuyas prácticas de gestión se desarrollaron en consecuencia. La inversión de una estructura de este tipo puede ser tumultuosa.
Presiones hacia la distribución
En 1982, hay presiones importantes a favor de poner la capacidad de procesamiento y los datos en manos de los usuarios, con una potencia de procesamiento limitada o nula en el centro.
Control de gestión.
El más importante de estos factores es la satisfacción del deseo de control de los usuarios. Los archivos de datos gestionados localmente permiten a los usuarios enterarse primero de las desviaciones con respecto al rendimiento planificado de su unidad, lo que les da la oportunidad de analizar y comunicar su comprensión de sus operaciones de forma regular.
Además, al excluirse de las fluctuaciones horarias de la demanda en la red corporativa, el usuario tiene más posibilidades de estabilizar su tiempo de respuesta. La mayoría de los usuarios consideran que un tiempo de respuesta predecible es muy importante en al menos algunas de sus aplicaciones.
La distribución del hardware a los usuarios les ayuda a eliminar o aislarse de los elementos más volátiles del sistema de cargos corporativo. Pueden predecir mejor sus costes, evitando así la necesidad de describir variaciones embarazosas. A menudo, los costes son más bajos.
Con la distribución de la potencia de procesamiento, la empresa es mucho menos vulnerable a un fallo masivo en el centro de datos corporativo. Las empresas con presupuestos de TI muy elevados, en los que los ordenadores soportan partes esenciales de las operaciones, se dan cuenta de que cada vez es más conveniente configurar dos o más centros de datos grandes y dividir el trabajo entre ellos de modo que, si algo le pasara a un centro de datos, los aspectos principales de las operaciones de la empresa pudieran centrarse en el otro. En general, estas empresas utilizan tanto los servicios de procesamiento de datos que organizar las copias de seguridad en algún otro sitio vecino no es práctico.
Las medianas empresas han tenido la práctica opción de organizar copias de seguridad con otras organizaciones (lo que a menudo suena mejor en teoría de lo que resulta ser) o de comprar algo como la solución de sitio remoto (donde$ 6.000 al mes (tienen acceso de emergencia a un centro de datos totalmente equipado y descargado). En caso de que eventos menos graves provoquen una interrupción del servicio en la ubicación principal, una red de miniordenadores locales puede mantener en marcha aspectos cruciales de una operación.
Desde la perspectiva del usuario, la red distribuida simplifica las operaciones tanto en la construcción del sistema operativo como en la introducción de trabajo en él. Se elimina la burocracia que supone dirigir el trabajo a un departamento de entrada de datos y los procedimientos se pueden integrar directamente en las operaciones del departamento de usuarios, aunque, sorprendentemente, algunos usuarios recuperan este control con inquietud. Del mismo modo, con el tipo de software correcto, las máquinas de la red distribuida son fáciles de usar.
Relacionado con la tecnología.
Aunque en los primeros días las unidades centrales de procesamiento grandes eran más eficientes que las máquinas más pequeñas, en la década de 1980, varios cambios importantes hicieron que esto dejara de ser cierto:
El tamaño de las CPU y las memorias ya no determina su potencia y su coste representa un porcentaje mucho menor del gasto total de hardware en 1981 que en 1970.
La Ley de Grosch (según la cual la potencia de procesamiento de los ordenadores aumenta a medida que el cuadrado de los costes del ordenador) nunca tuvo la intención de aplicarse a las unidades periféricas y otros elementos de una red.
El porcentaje de los costes de hardware como parte del presupuesto total del Estado Islámico se ha reducido drásticamente en la última década, a medida que han aumentado los costes de personal, telecomunicaciones y otros costes operativos y de desarrollo. Por lo tanto, la eficiencia del uso del hardware no es el tema candente que era hace diez años. Estos factores, junto con la mejora mucho más lenta de los costes de las telecomunicaciones (una caída del 11%)% por año) y la creciente necesidad de los usuarios de acceder en línea a los archivos de datos que se pueden generar y almacenar localmente, a menudo invierten el argumento económico de un centro grande.
Relacionado con los datos.
Debido a los costes de las telecomunicaciones y a las necesidades muy ocasionales de acceso a algunos archivos de datos por parte de usuarios distintos de los que originan los datos, a muchas empresas les resultará antieconómico o indeseable gestionar todos los datos mediante un acceso centralizado. Además, la capacidad de acceder a los datos y relacionarlos puede no ser necesaria para la estrategia corporativa.
Un ejemplo de ello es la gran empresa que mencionamos al principio, que recientemente consideró abandonar su centro de computación corporativo. El centro es una oficina de servicios para sus ocho divisiones principales, donde residen todos los miembros del personal de desarrollo. No existe ninguna solicitud o archivo de datos común ni siquiera entre dos de las divisiones (ni siquiera para la nómina). Si su supervivencia dependiera de ello, la empresa no podría identificar en menos de 24 horas su relación con ningún cliente.
En opinión de la alta dirección, esta organización del personal de desarrollo y la falta de relaciones de datos entre las divisiones refuerzan la estructura altamente descentralizada de la empresa. Por lo tanto, no existe presión por el cambio en ningún lugar de la organización. El centro de computación corporativo, una anomalía organizativa, se considera simplemente una forma rentable de permitir que cada división desarrolle su propia red de sistemas. Cambiar este enfoque no habría tenido ningún uso práctico e incluso podría amenazar una estructura organizativa bien concebida.
Servicio profesional.
Trasladar las funciones del entorno urbano a entornos más rurales puede reducir la rotación de empleados, que es la perdición de los departamentos de servicios de información del área metropolitana. Si bien la contratación puede resultar complicada y es posible que no haya centros de formación disponibles en esos lugares, una vez que los empleados estén allí, la falta de cazatalentos y de empleadores atractivos en las cercanías puede reducir la rotación.
Cuando el personal de SI está estrechamente vinculado a la organización de usuarios, resulta más fácil planificar los ascensos de los empleados que pueden trasladar al personal técnico de la organización de SI a otros departamentos de usuarios. Esta es una ventaja importante para un departamento con baja rotación, ya que los miembros del personal técnico pueden desarrollar síntomas de agotamiento. Estas transferencias también facilitan las relaciones entre los usuarios y el Estado Islámico.
Ajuste organizativo.
En muchas empresas, los controles implícitos en el enfoque distribuido se adaptan mejor a la estructura de la organización y al estilo de liderazgo general. Esto es particularmente cierto para las empresas con estructuras altamente descentralizadas (u organizaciones que desean evolucionar de esta manera) y/o para las que son muy diversas geográficamente.
Por último, las instalaciones altamente distribuidas se adaptan a las necesidades de muchas estructuras multinacionales. Si bien los datos de reservas de las compañías aéreas, las operaciones de los contenedores de transporte y determinadas transacciones bancarias deben fluir a través de una ubicación central, en muchos casos la abrumadora cantidad de trabajo se gestiona de forma más eficaz en el país local. La comunicación con la sede corporativa se puede gestionar mediante télex, cintas de correo o un enlace de telecomunicaciones, según el estilo de gestión de la organización, el tamaño de la unidad, etc.
Evaluar la idoneidad de un tipo o tamaño de hardware en particular y la configuración de datos para una organización es todo un desafío. Todas las organizaciones, excepto las más descentralizadas, tienen una gran necesidad de un control central de las normas y los procedimientos operativos. Sin embargo, los cambios en la tecnología permiten y hacen que sea deseable en algunas empresas la distribución del ejecución de partes importantes de las operaciones del hardware y la gestión de datos.
Reexaminar el despliegue de los recursos de hardware y software para la función de los servicios de información tuvo una gran prioridad en la década de 1980. Los cambios en la economía de la tecnología, la fusión de tecnologías que antes eran dispares con diferentes tradiciones gerenciales y los problemas de administrar cada fase de la asimilación de la tecnología de TI de diferentes maneras han hecho que las decisiones apropiadas para 1970 sean obsoletas. Los siguientes pasos pueden garantizar una gestión adecuada de estos problemas:
1. Las empresas deben hacer que el desarrollo de un programa para implementar estas decisiones forme parte de la misión de un grupo permanente de políticas corporativas. Este grupo político debe evaluar la tendencia actual hacia la fusión de las islas, garantizar un equilibrio entre los deseos de un centro central y las ventajas de un enfoque distribuido y garantizar una orientación adecuada de las diferentes tecnologías.
2. El grupo político debe asegurarse de que la uniformidad en las prácticas de gestión no vaya demasiado lejos y de que exista diversidad cuando proceda. Incluso dentro de una empresa, es lógico que las diferentes partes de la organización tengan diferentes patrones de soporte distribuido para el hardware y los datos. Las diferentes fases de desarrollo, con respecto a tecnologías específicas, y la distancia geográfica del soporte del servicio central son algunas de las razones válidas para que los enfoques difieran.
3. El grupo político debe mostrar una sensibilidad especial ante las necesidades de las actividades internacionales. Puede que no sea apropiado aplicar enfoques comunes a estos problemas a nivel internacional, ya sea para las empresas que operan principalmente en un solo país o para la multinacional que opera en muchos países. Cada país tiene una estructura de costes y calidad diferente para las telecomunicaciones, un nivel diferente de logros en materia de IS, diferentes reservas de habilidades técnicas y, como mínimo, una cultura diferente. Es probable que estas diferencias perduren. Lo que funciona en los Estados Unidos a menudo no funciona en, por ejemplo, Tailandia.
4. El grupo político debe abordar sus cuestiones de manera estratégica. Los argumentos y los razonamientos que conducen a un conjunto de soluciones son más complejos que simplemente la economía actual del hardware o quién debería tener acceso a qué archivos de datos. La estructura de la organización corporativa, la estrategia y la dirección corporativas, la disponibilidad de los recursos humanos y los procesos administrativos operativos son otros insumos fundamentales. Tanto en la práctica como por escrito, los técnicos y los teóricos de la información simplifican en exceso un conjunto muy complejo de problemas y opciones.
Una función fundamental del grupo es garantizar una inversión adecuada en I+D (fases 1 y 2). Hay que hacer un esfuerzo especial para realizar las inversiones adecuadas en estudios experimentales, estudios piloto y desarrollo de prototipos. Del mismo modo, el grupo debe asegurarse de que la experiencia comprobada se distribuya adecuadamente en la empresa, especialmente a los departamentos que tal vez desconozcan el potencial del Estado Islámico.
5. El grupo político debe establecer un equilibrio adecuado entre las necesidades a corto y largo plazo. Una estructura distribuida diseñada de manera óptima para la tecnología y la economía de 1982 puede adaptarse bastante mal al mundo de 1989. A menudo tiene sentido posponer el desarrollo de funciones o diseñar un enfoque torpe en la tecnología actual para adaptarse de manera más fácil y económica a las tecnologías de finales de la década de 1980. En la práctica, el grupo trabajará en estos temas de forma continua e iterativa en lugar de implementar un cambio revolucionario.
Un puente en el mapa urbano
Al mirar el puente [de Nueva York y Brooklyn] desde abajo, la primera impresión es que sus 135 pies por
…
Referencias
1. Richard L. Nolan y Cyrus F. Gibson, «Managing the Four Stages of EDP Growth», HBR, enero-febrero de 1974, pág. 76.
2. James L. McKenney, «Un estudio de campo sobre el uso de la tecnología informática para mejorar el control de la gestión» (documento de trabajo 7—46 de la HBS, diciembre de 1980).
3. Kathleen Curley, «El procesamiento de textos: ¿el primer paso hacia la oficina del futuro? Un examen de la tecnología en evolución y su uso en las organizaciones», tesis doctoral inédita de la Escuela de Negocios de Harvard, junio de 1981.
4. Edgar H. Schein, «El desarrollo de la gestión como proceso de influencia», Revisión de la gestión industrial, 1961, vol. 2, pág. 59.
5. Kathleen Curley, «Procesamiento de textos».
6. Edward G. Cale, Lee L. Gremillion y James L. McKenney, «Patrones de precio/rendimiento de los sistemas informáticos estadounidenses», Actas de la ACM, Abril de 1979.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.