PathMBA Vault

Organizational restructuring

De Director de Información a Gerente de Redes

por John J. Donovan

La computación descentralizada está arrasando los negocios como una ola que llega a una playa. Su avance es imparable, y por algunas razones poderosas. La economía es un factor importante. En un ordenador central, el coste medio por MIP (millones de instrucciones por segundo), un punto de referencia del rendimiento del hardware, se acerca$ 200 000. En un ordenador personal, el precio es solo de aproximadamente$ 4.000. Se aplica una comparación de costes similar al software. Las personas y los grupos pequeños pueden desarrollar aplicaciones informáticas de forma más rápida y económica que los equipos grandes. Para evitar deseconomías de escala en la programación, las empresas dispersan el proceso de desarrollo de software.

Los factores estratégicos y organizativos también están impulsando la descentralización de la potencia de cálculo. Por definición, los sistemas de información que vinculan a las empresas con clientes o proveedores lejanos (el tan anunciado uso de la tecnología de la información como arma competitiva) no pueden restringirse a las instalaciones informáticas de la sede central bajo un estricto control central. Dentro de las empresas, la aparición de usuarios de ordenadores capaces y seguros de sí mismos crea un poderoso electorado que favorece la descentralización. Los empleados quieren operar sus propios sistemas, a su manera y cuando les resulte más cómodo.

La migración de la potencia informática de las sedes corporativas a las divisiones, plantas y ordenadores de sobremesa promete reducir los costes, mejorar la competitividad y renovar la creatividad de las organizaciones. Pero también plantea profundos dilemas tecnológicos y políticos a los altos ejecutivos responsables de las operaciones informáticas. Si intentan aprovechar la economía favorable de los ordenadores y el software desarrollado localmente, es posible que acaben con cientos de aplicaciones aisladas (lo que yo llamo islas de información) incapaces de compartir datos. Si los altos ejecutivos se centran en evitar estas islas de información resistiéndose a la descentralización, es posible que no solo pierdan atractivas oportunidades de negocio, sino que también provoquen motines entre los usuarios que desean desarrollar sus propios sistemas.

No faltan historias con moraleja sobre los peligros para los administradores de la computación descentralizada. Por ejemplo, el alto ejecutivo a cargo de los sistemas informáticos de una empresa de equipos para césped permitió que sus dos fábricas principales desarrollaran sus propios sistemas de información para el seguimiento de las órdenes de trabajo y el inventario. Ambos utilizaban miniordenadores IBM System/36 independientes, pero sus equipos de aplicaciones crearon programas incompatibles personalizados para las operaciones de sus fábricas. Esto creó problemas cuando el CEO pidió informes consolidados periódicos sobre los envíos y el inventario. El personal del director de información tenía que recopilar los datos de cada fábrica por separado y combinar la información a mano. La capacidad de respuesta a las necesidades individuales de cada fábrica interfirió con la recopilación y el análisis de datos a nivel corporativo.

Estos problemas no se limitan al sector privado. El centro de información de un gobierno estatal permitía a agencias individuales, como bienestar público y finanzas, comprar su propio hardware de ordenador y especificar las aplicaciones que se necesitaban con más urgencia. Para evitar problemas de conectividad, los ingenieros de software del centro de información escribieron los programas y se aseguraron de que cumplían con las normas. Pero se acumularon muchos atrasos y los usuarios frustrados empezaron a exprimir aplicaciones gratuitas de sus vendedores de hardware o a enterrar la adquisición de software no autorizado en las órdenes de compra de equipos. Al final, el gobierno acabó con docenas de bases de datos y hojas de cálculo que no podían entrar en su ordenador central. Todavía no ha resuelto el lío.

En el mundo de la informática empresarial, la década de 1980 ha sido la década del director de información. Empresa tras empresa han nombrado a un alto ejecutivo, que depende del CEO, para que presida su agenda de información estratégica y sus operaciones de procesamiento de datos. Los CIO y su personal han estado ocupados gestionando enormes presupuestos de hardware y software, diseñando aplicaciones estratégicas, formando a nuevos usuarios y creando y gestionando enormes sistemas informáticos.

Creo que en la década de 1990 surgirá una nueva generación de altos ejecutivos de la información, el administrador de redes, cuyas prioridades y desafíos diferirán en muchos aspectos importantes de los de los CIO. A menos que los CIO se transformen con éxito en administradores de redes, no estarán preparados para hacer frente a la insatisfacción de los usuarios, las disputas organizativas y los obstáculos tecnológicos que siempre provoca el avance de la informática descentralizada.

¿Cuál es la diferencia entre un CIO y un administrador de redes? Los administradores de redes entienden que, en un mundo en el que la descentralización se acelera, la manera más eficaz de supervisar los recursos informáticos de una empresa es ceder el control de los mismos y, en cambio, centrarse en las redes que los conectan. Los administradores de redes no se limitarán a aceptar la inevitabilidad de la informática descentralizada. Lo fomentarán cediendo la autoridad sobre la compra de hardware y el desarrollo de software y, al mismo tiempo, tomando el control de los sistemas y políticas de comunicación. Estas áreas se volverán cada vez más complejas a medida que el hardware y el software migren por la organización y la empresa dependa cada vez más de las conexiones electrónicas con los clientes y los proveedores.

En la práctica, la gestión de redes significa evaluar las tecnologías de hardware haciendo tanto hincapié en las capacidades de telecomunicaciones como en el mero rendimiento del procesamiento. Significa desarrollar herramientas de software a nivel de sistema que garanticen la seguridad de la red y creen interfaces consistentes y fáciles de usar entre estaciones de trabajo de diferentes potencias basadas en diferentes arquitecturas. Significa implementar estándares de conectividad en toda la organización para que los usuarios puedan revisar sus aplicaciones sin poner en peligro toda la red de la empresa. En resumen, significa establecer reglas básicas tecnológicas y organizativas que guíen a los usuarios autodirigidos de ordenadores.

Hasta ahora, los CIO han gobernado el uso de los ordenadores en entornos descentralizados mediante varias políticas distintas. (Consulte la ilustración «Las cuatro etapas de la computación descentralizada».) La lógica de este marco es bastante simple. Los CIO toman decisiones de centralización y descentralización en tres niveles. Las tres dimensiones del marco corresponden a estas opciones. El x-El eje rastrea el grado en que las empresas distribuyen el hardware a las fábricas y oficinas. El y-axis refleja la descentralización de las funciones de desarrollo, como la creación de nuevas aplicaciones y la actualización del software. El z-axis rastrea la ubicación de la autoridad de toma de decisiones sobre los sistemas de información (por ejemplo, quién aprueba la compra de hardware o quién determina qué aplicaciones desarrollar).

Las cuatro etapas de la computación descentralizada

El punto del marco en el que se unen los tres ejes representa el conjunto de políticas centralizadas con las que prácticamente todas las empresas entraron en la era de la informática hace tres décadas. En este caso, el personal de información corporativa ejerce el control absoluto: los grandes ordenadores centrales disponibles solo para los profesionales del procesamiento de datos ejecutan programas diseñados y escritos por equipos de software centralizados. Hoy en día, este conjunto de políticas es un dinosaurio organizativo y tecnológico. Sin duda, algunas empresas siguen manteniendo los sistemas administrativos, como la nómina y las cuentas por pagar, bajo rígidos controles centrales. Sin embargo, la proliferación de miniordenadores, estaciones de trabajo técnicas y ordenadores ha hecho desaparecer las políticas basadas en un hardware altamente centralizado.

El punto B, por otro lado, representa el método de «mano amiga» para gestionar los ordenadores en la era actual del hardware distribuido. Los ordenadores centrales, los miniordenadores y los ordenadores se encuentran en las fábricas o sucursales que los utilizan y son gestionados por ellas. Pero estos departamentos no escriben, actualizan ni reparan el software de aplicación que alimenta sus equipos. Un equipo técnico central realiza todo el trabajo de desarrollo en respuesta a las prioridades establecidas por los usuarios. El centro de información del gobierno estatal descrito anteriormente funcionaba según esas políticas.

Ninguno de estos puntos representa la base natural de una organización. Las exigencias competitivas del sector, la estructura organizativa de la empresa y la competencia tecnológica de la fuerza laboral influyen en el ritmo y el método de descentralización. Sin embargo, prácticamente todas las empresas están avanzando (aunque a ritmos diferentes) hacia el punto D, el modelo de «red». Analicemos cada una de estas políticas por separado.

Los hermanos mayores y los usuarios impotentes

Las políticas de Gran Hermano suelen regir los sistemas orientados a las transacciones en los que los usuarios tienen una experiencia técnica limitada (aplicaciones como los escáneres de puntos de venta de los supermercados o las terminales portátiles que ayudan a los conductores de camiones a hacer un seguimiento de la facturación y las entregas). Una característica distintiva de los sistemas Big Brother es su sencillez. Las aplicaciones de este entorno son especializadas y los usuarios eligen entre no más de diez transacciones posibles. Además, dado que los usuarios de las aplicaciones de Gran Hermano suelen ser personal de línea, normalmente carecen de influencia en la organización para expresar o actuar en función de cualquier insatisfacción que sientan con respecto al sistema.

La sencillez de las aplicaciones y la falta de experiencia y posición organizativa entre los usuarios finales permiten al departamento de sistemas de información (SI) mantener un control estricto de los sistemas informáticos. Capacita y apoya a los usuarios y distribuye versiones únicas de todo el software desarrolladas de forma centralizada. En lugar de dar a los usuarios un código fuente que les permita jugar con una aplicación, el personal del Estado Islámico solo distribuye código de máquina binario, una cadena de unos y ceros que incluso a los expertos les resultaría difícil modificar y que los usuarios poco sofisticados desde luego no podrían revisar. Al decidir cómo satisfacer las necesidades de los usuarios, el CIO suele centrarse en controlar los costes en lugar de tratar de minimizar el tiempo de respuesta.

Este entorno sufre varias tensiones intrínsecas. Por ejemplo, aunque los usuarios pasen la mayor parte del día trabajando con los ordenadores, tienen poco control sobre su funcionamiento. Las empresas que basan el servicio en minimizar los costes suelen crear largas acumulaciones para los usuarios que desean actualizar o modificar los programas. Incluso si el coste no es un problema, el personal de TI en los entornos de Gran Hermano a menudo se resiste a actualizar su capacidad de respuesta a los usuarios por miedo a que demasiadas versiones de una aplicación puedan socavar la coherencia del software. Los atrasos y la falta de capacidad de respuesta generan resentimiento.

Eso es lo que ocurrió en el Departamento de Vehículos Motorizados de un gran estado sureño. El departamento tramitó las solicitudes de matriculación y título de automóviles en ordenadores IBM Serie 1 dedicados ubicados en 187 oficinas de impuestos de todo el estado. Para facilitar la retroalimentación de datos desde estas oficinas a un potente ordenador Amdahl en la capital del estado, el Departamento de Estado Islámico insistió en tener el control absoluto de los detalles de cada solicitud.

Pero sus 12 programadores no podían hacer ni siquiera cambios pequeños con la suficiente rapidez como para satisfacer a los usuarios. Algunas oficinas locales querían introducir los nombres en un orden diferente al estándar. Otros querían pantallas táctiles para acelerar la recuperación de datos. Otros querían rutinas de búsqueda más eficientes para actualizar la información del vehículo en los archivos existentes. Estos usuarios desencantados empezaron a jugar con los programas y a adquirir software no autorizado. Los legisladores estatales, preocupados por la sobrecarga de aplicaciones de los equipos de IBM, presionaron al Estado Islámico central para que tomara medidas enérgicas.

El departamento de vehículos motorizados aún no ha ideado una solución. Sin embargo, en última instancia, tendrá que enfrentarse a un dilema clásico de los sistemas de información. ¿Debería el departamento ampliar su personal de programación para que responda mejor a las necesidades de los usuarios? ¿O debería aceptar la creciente confianza de los usuarios relajando el control sobre las aplicaciones y exigiendo el cumplimiento de las normas de comunicación de datos? Decida lo que decida el departamento, la lección central está clara. Una vez que los usuarios del entorno de Gran Hermano alcanzan una masa crítica de inquietud, es casi imposible mantener el status quo a pesar de la falta de poder de los usuarios para actuar en respuesta a sus quejas.

Una mano amiga para el control indirecto

Las políticas de mano amiga rigen las aplicaciones complejas que utilizan los ejecutivos que tienen un profundo conocimiento de las fortalezas y debilidades competitivas de su operación. El director de la oficina regional de una compañía de seguros, por ejemplo, tendrá un conocimiento insuperable de los perfiles de riesgo, las estructuras reguladoras y las preferencias de los clientes de ese territorio. Es poco probable que los profesionales de la informática de la sede de la empresa puedan generar programas que satisfagan las necesidades de esta oficina regional sin su estrecha participación. En este caso, a diferencia del modelo de hermano mayor, el personal central de TI redacta y mantiene programas para cumplir con las especificaciones establecidas por las sucursales, divisiones o subsidiarias. Y los usuarios de ordenadores suelen tener acceso directo a la alta dirección, una realidad política que puede complicar el control del CIO sobre los recursos informáticos.

Pero mantener el control sigue siendo el objetivo básico del CIO. El personal del Estado Islámico desarrolla un software que se basa en las especificaciones del usuario, pero que también se ajusta a los estándares establecidos por la sede. El departamento de TI selecciona los lenguajes de programación, los procedimientos de desarrollo y los sistemas operativos que maximizan la conectividad de la red. Utiliza su autoridad en las compras departamentales de hardware, software y periféricos para mantener arquitecturas de hardware coherentes. Por último, la oficina del Estado Islámico capacita y apoya a los usuarios finales poco sofisticados desde el punto de vista técnico.

Las tácticas de control en el modelo de la mano amiga son más indirectas que en las políticas de Gran Hermano. El CIO y el personal del Estado Islámico desempeñan funciones de apoyo en lugar de autoritarias. Los desarrolladores trabajan en estrecha colaboración con los usuarios a la hora de escribir programas y desalientan las funciones que puedan interferir con los objetivos informáticos generales de la empresa. Central IS suele actuar como bibliotecario de software, mantiene cintas de programas e intercambia aplicaciones entre oficinas y departamentos. Un programa de análisis financiero desarrollado para una sucursal podría ofrecerse como bonificación a otras sucursales. De esta manera, el software se convierte en una moneda de trueque con la que el CIO mantiene la armonía de los usuarios.

El Estado Islámico central también debe desempeñar una función de mediador, ya que las oficinas y divisiones compiten por recursos limitados. De hecho, los escasos recursos de programación (especialmente para el mantenimiento de las aplicaciones existentes) son la mayor fuente de inestabilidad en el entorno de la mano amiga. Los analistas estiman que cada dólar que un CIO gasta en desarrollar un programa requiere un adicional$ 4 en costes de mantenimiento a lo largo de su vida útil. Así que, a medida que proliferan las aplicaciones personalizadas, los presupuestos del Estado Islámico se disparan.

Tenga en cuenta cómo los cambios en las leyes tributarias federales afectan a los sistemas informáticos de una empresa de promoción inmobiliaria. Es posible que el grupo de Estados Unidos tenga que modificar docenas de programas financieros, de marketing y de contabilidad personalizados que contienen suposiciones ahora obsoletas sobre los tipos impositivos y los calendarios de depreciación. Luego, debe distribuir los cambios entre, posiblemente, miles de ordenadores simultáneamente, una operación cara y que lleva mucho tiempo.

Si bien el sistema operativo central define los procedimientos de desarrollo en principio, en la práctica los usuarios frustrados pueden amenazar la coherencia del programa de varias maneras. Los consultores contratados sin autorización pueden desarrollar fragmentos de programas o aplicaciones enteras que no sigan las directrices del Estado Islámico. La disponibilidad de software barato y listo para usar también puede dar lugar a hojas de cálculo y bases de datos elaboradas fuera del control del Estado Islámico. Si son incompatibles con los programas o el software de red existentes, estas bolsas de información pueden introducir imprecisiones en los datos de la empresa y poner en peligro el buen funcionamiento de las aplicaciones estratégicas.

Una empresa inmobiliaria propiedad de un importante conglomerado de entretenimiento ilustra estos riesgos. Las oficinas locales de la empresa dependían de sistemas personalizados de apoyo a las ventas y el marketing conectados a un mainframe central para hacer un seguimiento de sus recursos principales: viviendas, condominios y terrenos sin cultivar. El CIO quería mantener un inventario preciso de todas las participaciones de la empresa garantizando un flujo de datos fluido entre los ordenadores locales y el ordenador central de la empresa. Con este fin, el departamento de TI exigió que las oficinas locales ejecutaran las aplicaciones principales en una marca de ordenador personal elegida por su facilidad de conexión con el ordenador principal. Dentro de estas restricciones de hardware y software, los programadores de IS modificaron y mejoraron las aplicaciones de ventas y marketing en función de las especificaciones locales.

La acumulación de modificaciones no satisfechas seguía aumentando. Central IS intentó ganar tiempo ofreciendo a los usuarios acceso remoto a otros programas populares del ordenador central corporativo. Pero los directivos locales apelaron a los altos ejecutivos de la empresa y obtuvieron permiso para contratar consultores que hicieran los tan retrasados cambios de software. En poco tiempo, la información comenzó a migrar de la base de datos corporativa del mainframe a estos nuevos programas de PC, no todos los cuales se devolvieron sin problemas al mainframe. La empresa ya no podía mantener un inventario preciso de sus propiedades y, como los usuarios no solían hacer copias de seguridad de los datos de sus nuevos programas, la información de algunas propiedades desaparecía por completo durante los fallos de hardware.

El CIO pidió que se realizaran auditorías para erradicar programas problemáticos y ocultó los servicios de mainframe a las oficinas renegadas. La lucha política se extendió a toda la empresa y los ánimos se elevaron. Todavía no hay una solución a largo plazo para esta situación. Un enfoque de zanahoria y palo basado en recompensas por buen comportamiento y en auditorías de software puede ofrecer incentivos para mantener la integridad de la base de datos. De lo contrario, es posible que el CIO tenga que permitir que las oficinas locales se encarguen de sus propias modificaciones de software, siempre y cuando los cambios cumplan con los estrictos estándares de comunicación entre el ordenador y el microordenador.

Los perros guardianes no pueden verlo todo

Los factores que dan lugar a las políticas de vigilancia suelen ser los opuestos a los que conducen a los principios de la mano amiga. La mayoría de las veces, las políticas de vigilancia rigen a las burocracias grandes e inflexibles con líneas de autoridad y jerarquía claras. Las instalaciones militares casi siempre funcionan de esta manera, con equipos de ingenieros que escriben programas especificados por oficiales de alto rango. En general, los usuarios finales del entorno de vigilancia son técnicamente competentes, pero carecen de los conocimientos empresariales necesarios para especificar las aplicaciones que necesitan. Como resultado, el sistema de información central controla todas las decisiones principales, desde la compra de hardware y software hasta las prioridades de desarrollo de aplicaciones. El personal de TI estandariza los sistemas operativos, los lenguajes de programación y, a veces, incluso el estilo de programación, y el CIO hace cumplir las directivas mediante auditorías frecuentes y rigurosas. No es inusual que los auditores visiten los departamentos semanalmente o incluso a diario para buscar programas no autorizados en los archivos del ordenador.

Sin embargo, dentro de estas estrictas restricciones, los equipos de desarrollo independientes básicamente dirigen sus propios talleres técnicos. El personal local se encarga de las operaciones diarias, como configurar las contraseñas y corregir los errores de hardware y software. Estos equipos locales desarrollan y distribuyen el software a los usuarios. Aun así, deben solicitar el hardware y las herramientas de desarrollo al Estado Islámico central y obtener el permiso para desarrollar aplicaciones.

El entorno de vigilancia tiene las tensiones integradas más graves de todos los modelos que he estudiado y, por lo tanto, es el menos estable. A pesar de la eliminación de los retrasos en la programación (los desarrolladores locales escriben y actualizan su propio software), las órdenes de compra y las solicitudes de permiso para desarrollar aplicaciones pueden acumularse y ralentizar el proceso de programación. A los ingenieros brillantes y capaces les molestan los retrasos en el desarrollo incluso más que sus homólogos con mentalidad empresarial en el marco de la mano amiga o el personal de línea en el entorno de Gran Hermano. Además, la vigilancia estricta por parte del Estado Islámico central puede interpretarse como interferencia o acoso, otra posible fuente de frustración. Así que no es inusual que programadores locales con talento dediquen gran parte de su tiempo a desarrollar y ocultar software no autorizado o a eludir los controles del Estado Islámico.

El gobierno de una gran ciudad del norte de California tuvo este problema recientemente. Cada uno de los 24 departamentos de la ciudad tenía dos o tres programadores responsables de cargar, integrar y depurar el software en la centralita telefónica (PBX) de la sucursal privada del departamento. Una aplicación importante rastreaba las llamadas telefónicas salientes y facturaba a las oficinas que las hacían. A su vez, cada una de las PBX estaba conectada a una red municipal a través de un programa de comunicaciones controlado por un grupo central de servicios informáticos. Pero el software de comunicaciones tenía puntos débiles que el grupo central tardó en corregir.

Acostumbrados desde hace mucho a la jerarquía del gobierno municipal, los programadores locales no perdieron tiempo en pasar por alto al CIO para expresar su frustración. Simplemente desarrollaron su propio software de comunicación, lo que finalmente creó inconsistencias en la red. Además, el tiempo que los programadores locales dedicaron al software de comunicación era tiempo que deberían haber dedicado a otros proyectos. Este es un claro ejemplo de un CIO que pierde el control de un recurso vital —en este caso, el tiempo de los programadores— al descuidar las preocupaciones técnicas de los subordinados, que son plenamente capaces de abordarlas por sí mismos.

Los desafíos de la gestión de redes

Hay una elegancia estructural, basada en la sencillez y la autodirección, que distingue al modelo de red de sus homólogos. Los usuarios finales de los demás marcos están bajo el control (directo o indirecto, respetado o eludido) del personal de información corporativa. Como hemos visto, ese control puede provocar problemas por los escasos recursos. Esta confusión no solo socava la autoridad del CIO, sino que también pone en peligro los objetivos informáticos para los que se diseñaron las políticas.

El control de la informática diaria no es un problema para los administradores de redes. El personal técnico que dirige los departamentos o divisiones de la empresa se ocupa de todos los aspectos de sus sistemas de información. Compran hardware y periféricos, desarrollan y escriben aplicaciones, cargan los sistemas operativos y responden a los fallos de los equipos. Los atrasos en el desarrollo y los retrasos en las aprobaciones son cosa del pasado.

Sin embargo, detrás de esta sencillez descentralizada se esconden imponentes desafíos tecnológicos. Completar la transición de CIO a administrador de redes requiere la implementación de los tres niveles de conectividad (física, de sistemas y aplicaciones) que conectan los ordenadores y les permiten compartir información. El hecho de que la industria de la informática no haya adoptado estándares de varios proveedores en tantos ámbitos (sistemas operativos, almacenamiento e intercambio de datos, comunicaciones de mainframe a microcomunicaciones) complica enormemente el trabajo del administrador de redes. Sin embargo, el desarrollo de soluciones eficaces y personalizadas para los tres niveles de conectividad de la red es un requisito previo para la evolución hacia el modelo de red.

Consideremos cada nivel por separado. Una sola línea telefónica ruidosa o un chip defectuoso en una instalación de componentes pueden paralizar un sistema que depende del intercambio de información entre las fábricas, entre un ordenador central de la sede y los microordenadores de las sucursales, o entre una empresa y sus clientes. Por lo tanto, la responsabilidad más básica del administrador de redes es crear y mantener una infraestructura de comunicaciones de datos sólida (la red física) que minimice las interrupciones y los tiempos de inactividad. Esto significa prestar más atención a la selección y el mantenimiento de los equipos y servicios de telecomunicaciones, como la transmisión de datos a larga distancia, los módems, los multiplexores y los controladores, y evaluar estas tecnologías en función de la fiabilidad y la precisión, así como del coste.

Hoy en día, la transmisión de datos en muchas empresas es responsabilidad de un director de telecomunicaciones, que se centra principalmente en seleccionar las compañías telefónicas, comprar equipos y reducir las facturas de telefonía de larga distancia. Estos gestores casi nunca prestan a las redes de datos la atención que se merecen. Algunas empresas con visión de futuro han asignado una responsabilidad especial en la comunicación de datos a un gerente que depende directamente del CIO. Esto es una mejora, pero no va lo suficientemente lejos. El CIO debe participar personal y profundamente en las decisiones de comunicación, tal vez hasta el punto de dedicar varias horas al día al diseño, el mantenimiento y la expansión de la red física. De lo contrario, es poco probable que la empresa realice las inversiones o dedique los recursos de personal necesarios a construir una infraestructura de comunicaciones de alto rendimiento.

La conectividad a nivel de sistemas es el segundo gran desafío. Una red que funcione sin problemas debería permitir al personal de información corporativa supervisar y abordar el rendimiento de todos los ordenadores de una red en particular. Por ejemplo, el personal del administrador de la red debería poder asignar o modificar las contraseñas rápidamente para bloquear el acceso no autorizado a las nuevas aplicaciones de una red que contengan datos confidenciales. Del mismo modo, el personal del Estado Islámico debería poder distribuir las nuevas aplicaciones a los ordenadores de la red que las necesiten, independientemente de sus sistemas operativos o ubicaciones.

Varios de los principales proveedores, como IBM, Digital Equipment y AT&T, así como algunas compañías de software independientes, ofrecen herramientas a nivel de sistema que realizan algunas funciones de conectividad. Sin embargo, estas soluciones de terceros tienen graves deficiencias. La mayoría de ellos proporcionan seguridad y gestionan terminales remotos, pero por lo general no integran estas capacidades en una interfaz coherente y fácil de usar. Y al igual que ocurre con la red física, la ausencia de estándares industriales significa que ningún producto puede abordar más de una fracción del hardware y los protocolos de comunicación dispersos por toda la organización. Una conectividad eficaz a nivel de sistemas puede requerir una gran inversión de tiempo del personal para desarrollar soluciones personalizadas a los acuciantes problemas tecnológicos. Estas inversiones no se aprobarán a menos que el alto ejecutivo a cargo de los sistemas de información las dé prioridad.

Crear una infraestructura de comunicaciones fiable cuyo rendimiento pueda ser supervisado por el personal central de TI solo es valioso si los cientos de aplicaciones que se ejecutan en la red pueden intercambiar información libremente. La verdadera conectividad de las aplicaciones es un desafío formidable, incluso para una red compuesta por ordenadores y software casi idénticos, porque las aplicaciones cambian constantemente. Y las modificaciones pueden interferir con la capacidad de una aplicación de introducir datos en otro software.

Los obstáculos técnicos a la banca relacional, una aplicación muy apreciada en el competitivo sector de los servicios financieros, son un buen ejemplo. Un solo representante de marketing analiza, evalúa y recomienda cambios en toda la cartera de un cliente. Para ello, el representante debe poder reunir por orden un perfil completo de las actividades del cliente en todos los servicios del banco. Eso requiere obtener información de los distintos sistemas informáticos que gestionan, por ejemplo, hipotecas hipotecarias, certificados de depósito, cuentas corrientes y préstamos para automóviles. Sin embargo, la evolución de cada sistema puede afectar a toda la red. Algo tan simple como invertir el orden en que los operadores de cuentas corrientes registran el nombre y los apellidos amenaza la integridad de una red que no puede adaptarse a ese cambio.

En este nivel, mantener la conectividad de las aplicaciones requiere procedimientos estrictos para garantizar que los departamentos notifiquen al administrador de la red todas las modificaciones del software. Con este sistema, la función del personal central de TI pasa de aprobar o desarrollar aplicaciones a ajustar la interfaz entre las aplicaciones modificadas para que puedan seguir intercambiando datos.

La conectividad de las aplicaciones se hace aún más difícil cuando la red admite sistemas informáticos incompatibles. Por ejemplo, un banco que adquiere a un competidor y quiere ofrecer servicios de banca relacional puede que tenga que recopilar datos de dos entornos informáticos muy diferentes. Del mismo modo, una red que une a una empresa con sus proveedores casi siempre debe ser compatible con varios sistemas operativos. Quizás dentro de una década, la industria de la informática adopte estándares de conectividad para facilitar el intercambio de datos entre ordenadores basados en diferentes arquitecturas. Sin embargo, hasta entonces, son los administradores de redes los que deben diseñar soluciones personalizadas.

Estas soluciones requieren el desarrollo de lo que yo llamo «filtros de aplicaciones» que se traduzcan entre los diferentes sistemas de la red, oculten las características particulares de cada ordenador y se ajusten a los cambios en las aplicaciones. Varias organizaciones, incluidas Covenant Insurance, la Cruz Roja de los Estados Unidos y el Banco Nacional de Maryland, han implementado estos filtros en grandes aplicaciones estratégicas. Sus experiencias hasta la fecha han sido muy alentadoras. En un futuro próximo, es posible que los sistemas expertos puedan detectar y ajustar automáticamente los cambios en las aplicaciones que afecten al resto de la red. Se han desarrollado prototipos de estos sistemas expertos, aunque aún faltan varios años para la tecnología necesaria para su implementación a gran escala.

La transición de CIO a administrador de redes no será inmediata ni fácil. Pero debe hacerse si los altos ejecutivos quieren reducir los costes y aumentar la ventaja estratégica de sus sistemas informáticos. El CIO que se enfrente a los desafíos de la gestión de redes puede superar los peligros de la informática descentralizada y aprovechar su enorme potencial.