Cuarenta años de Tecnologías de la Información

En relación al cuadragésimo cumpleaños de Simo, José Luis Solla, socio de PROfit, director general de Gartner Group, se manifiesta acerca del futuro del entorno de las TIC.

Publicado el 31 Oct 2000

La verdad es que la cosa no me cae demasiado alejada, puesto que mi primer trabajo, que fue naturalmente en el sector, se produjo hace 30 años, exactamente el 5 de febrero del 70, cuando yo entraba en la NCR, junto con otros once novatos, casi todos con la carrera recién terminada y un par de ellos con alguna pendiente del último curso. Después, mi singladura por Datasaab, Ericsson, Nokia, Olivetti, AT&T, NCR de nuevo y ahora en el grupo PROFit, dirigiendo las actividades Gartner para unos cuantos países, me ha proporcionado una riqueza de experiencias, relaciones y vivencias que, cuando menos, han merecido la pena.

El problema que ahora se me plantea es que todo es conjunto de recuerdos se me agolpan pidiendo paso, queriendo hallar su lugar en el relato. Anécdotas como aquella del CRAM (Card Random Access Memory, que fue uno de los predecesores de los discos, que aún no existían en los 60) de un ordenador de la serie 315 instalado en Banesto y en el que se producían pérdidas de información, con la curiosa coincidencia de que cuando una de aquellas enormes tarjetas magnéticas daba error, al observarla se percibía una señal en forma de media luna blanca sobre el fondo negro del plástico magnetizado. Imagínate, querido lector, las tribulaciones de los técnicos, hasta que, por casualidad observaron como un operador, al colocar un cartucho de tarjetas pasaba, con dedicación, la uña del pulgar por los bordes para que se separaran y quedasen colgando, sueltas y preparadas para ser seleccionadas y absorbidas por la corriente de aire que las depositaría sobre el tambor en que se procedía a su lectura. Como con un resorte, saltó el técnico y pudo ver como aquella uña aplicada con celo producía la famosa media luna en el plástico, dañando el área y perdiendo la información que se había registrado magnéticamente. Pues, como decía, anécdotas como ésta y de todo tipo se agolpan y corro el riesgo de perder rigor y profundidad en la exposición para quedarme en el nivel superficial del asunto.
¿Cómo hacer para introducir un poco de orden en este torrente? Lo más fácil es recurrir a una imagen y ceñirse a su descripción. La que aquí muestro presenta la evolución de la informática en cuatro etapas, que sitúo en dos ejes cartesianos. El de ordenadas presenta el impacto de las TI en la estructura de la empresa u organización y el de abscisas representa el eje temporal.

Como se puede ver, cada una de las etapas comienza en un momento determinado, pero ninguna ha terminado todavía. No sólo hay empresas u organizaciones que están todavía en la etapa I, sino que incluso, dentro de una misma empresa puede haber áreas organizativas situadas en etapas diferentes.

La etapa I, pasado ya el primer momento en que los ordenadores (siguiendo la corriente francesa, de ordinateur, que fue la que ganó en España) o computadoras (del término computer, en inglés, que se impuso en los demás países de habla hispana), como digo, pasado ya el primer momento en que estos equipos se empleaban fundamentalmente para cálculos simples y repetitivos, especialmente estadísticos, leyendo, acumulando y clasificando tarjetas perforadas, por ejemplo, se entró en los 60 en su utilización para la automatización de tareas repetitivas y de bajo valor añadido. Con un poco de imaginación puede visualizar el lector una de aquellas aplicaciones clásicas, una actualización de inventario.

Tenemos, por un lado un paquete de fichas perforadas, una por artículo, cada una conteniendo el número de artículo y la cantidad en existencias. Lo ponemos en el lector de la máquina ordenado por número de artículo. Por otro lado, nos llega de la sala de perforación un paquete de tarjetas que cada una contiene una operación de incremento o disminución de cantidad de un artículo determinado, reflejando entradas o salidas de almacén. Procedemos a clasificar estar tarjetas por número de artículo, para lo cual necesitamos hacer varias pasadas en la lectoclasificadora de tarjetas y ya las tenemos clasificadas. Tenemos ahora dos lectores conectados a un procesador, que, a su vez, tiene un perforador de salida. El resto os lo podéis imaginar, vamos leyendo tarjetas de movimientos y acumulando las cantidades, mientras no cambia el número de artículo. Cuando éste cambia, automáticamente (es casi lo único automático de todo el proceso) se perfora una nueva tarjeta del maestro con la posición resultante de inventario y vuelta a empezar con el siguiente artículo. Curioso, ¿no? Pues, encima imaginaos que el programa estaba realizado en aquella primera etapa mediante clavijas que se pinchaban en un panel. Vinieron los programas ejecutables en memoria de ferritas y que se guardaban en bloques de tarjetas perforadas, o cinta perforada o, posteriormente, en tarjetas magnéticas. Los lenguajes fueron primero lenguaje máquina puro, para pasar a ensambladores, compiladores… Los medios de almacenamiento externo quedaron todos obsoletos con la aparición de los primeros discos. Discos fijos, discos removibles. Discos que tenían el tamaño de una de aquellas sombreras de época y que almacenaban la barbaridad de ¡8 megas! Y se conectaban a ordenadores que ocupaban una habitación entera, con aire acondicionado y filtrado y que tenían la friolera de 16 o 32 K de memoria.
Pues esta fue una época dorada para el sector. Todas las empresas necesitaban sistemas informáticos para automatizarse, reducir costes, ganar en eficiencia y, naturalmente, también se criticaba su impacto negativo sobre el empleo. En esta época, aparecieron, al poco, los minis, retando a los ordenadores centrales, los mainframes, David contra Goliath, o Olsen -Digital- contra Watson jr -IBM-. Este tipo de reto y el anuncio de los días contados para los mainframes lo hemos vuelto a ver en varias ocasiones posteriores y ahí están, con buena salud, y rebautizados como superservidores a los que se confían las misiones más críticas, junto con máquinas de HP o de SUN que, aunque les llamamos servidores, tienen todas las características de potencia y fiabilidad que lo que podríamos entender como mainframe.

Transcurrida esta etapa, dominada por el duo mainframe/mini y que se caracterizó por su utilización en el recorte de costes y ganancia en eficiencia, comenzó la revolución del PC. Primero fueron ordenadores personales con sistemas operativos dispares e incompatibles, sin conexión a nada (teniamos en nuestra mesa un ordenador personal, por un lado, para nuestras hojas de cálculo y preparación de presentaciones y, por otro, un terminal para conectarnos al ordenador de la empresa). Tras pocos años de anarquía en el mundo del ordenador personal, IBM lanzó su PC con el DOS y, creo que la manera más gráfica de expresarlo es decir que ¡se lió una buena! Pero de esto, que casi le cuesta desaparecer a la propia IBM, aunque después y de la mano de Louis Gerstner, ha protagonizado uno de los come backs más ejemplarizantes que se pueden imaginar, como digo, de ésto, ya habreis leído y oído mucho. Por tanto, baste decir que, de conceptos como poder para el usuario y herramientas de authoring -mediante las cuales, los usuarios se iban a programar y gestionar todo- se pasó a tratar de poner un poco de orden con la arquitectura Cliente/Servidor, ya en los finales 80, para dar paso al network computing en los finales 90 y que coincide con el despegue de las tecnologías internet, que son las que ahora están configurando la historia.

Personas, eventos, tecnologías, predicciones cumplidas, predicciones fracasadas, ferias, nacimiento y caída de empresas y conceptos, todo forma una historia reciente que ha servido para configurar, en buena parte, una situación social y económica que no me hubiera gustado perderme.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4