De acuerdo con el historiador Cornelio Tácito, tres lustros es el espacio temporal necesario para que una tendencia se consolide, pero la medida del romano pierde solidez cuando hablamos del mundo TIC, caracterizado por un ritmo evolutivo trepidante. Continuamos hablando de hardware, software y servicios, pero detrás de esos compartimentos existe una realidad mucho más compleja y difícil de abordar. Del producto a la solución y de los cajones estancos a la convergencia. Así podría resumirse la transformación de la que hemos sido testigos en estos últimos 15 años, un abrir y cerrar de ojos en el que la tecnología ha pasado de ser un activo en manos de unos pocos a convertirse en una ‘commodity’ sin la que el mundo tal y como hoy lo conocemos simplemente dejaría de existir. Iniciamos este periplo en el difícil 1995, un año comparable al actual teniendo en cuenta que por entonces el sector TIC mundial iniciaba su recuperación tras haber sufrido una profunda crisis a lo largo de los tres años previos. Durante ese ciclo depresivo, que afectó muy negativamente a la economía española en la primera mitad de la década de los 90, especialmente entre 1992 y 1994, y en consecuencia, arrastró al sector TIC a un descenso tanto en la cifra de negocio como en el empleo, se produjeron, no obstante, cambios muy importantes.
De hecho y coincidiendo con el inicio de la década de los 90 empezaron a entrar en los CPDs de las empresas los sistemas operativos Unix asociados a nuevos sistemas de gestión y paquetes de aplicaciones que, poco a poco, irían ganando peso frente a los sistemas propietarios que, no obstante, todavía hoy mantienen su particular reinado en la mayoría de las organizaciones en combinación con el inmortal mainframe.
En este escenario y más allá del protagonista Unix, nacido en 1965 de la mano de los laboratorios de desarrollo de Bell Labs de AT&T, y del recién llegado Windows NT con la irrupción de Microsoft en el mercado corporativo en 1993, empezaba a ganar consistencia el fenómeno Linux después de que el cinco de octubre de 1991 un joven Linux B. Torvalds anunciara desde la Universidad de Helsinki la primera versión oficial de Linux, la 0.02. Con el impulso en un primer momento de distribuidores osados como SCO y, más tarde, con el soporte de gigantes de la talla de IBM, Linux ha acabado ganando una merecida presencia en el mercado TIC. El movimiento Linux que, íntimamente ligado al doble sueño de la estandarización y la interoperabilidad, impulsó el viaje del modelo ‘open source’ desde los entornos académicos al mundo empresarial, sentó las bases de un nuevo escenario que, además de servir de acicate a la indudable capacidad de innovación del tándem Intel-Microsoft, implicó el cuestionamiento del tradicional modelo basado en licencias logrando manifiestamente reducir su hasta el momento omnipresencia, primero en los entornos servidor y más tarde también en los entornos cliente, incluyendo los dispositivos móviles, con Android actualmente como estandarte.
Al mismo tiempo y dejando patente la vigencia de la famosa ‘Ley de Moore’, formulada en 1965 por uno de los fundadores de Intel, el Dr. Gordon Moore, en los últimos 15 años el alma de los equipos hardware, los microprocesadores, han ido cumpliendo la norma de que más o menos cada 18 meses se duplica el número de transistores contenidos en un microprocesador; de esta forma cada año y medio aproximadamente los usuarios disponen a un menor coste de equipos que ofrecen mayor rendimiento. A la vista está el enorme avance conseguido desde que Intel lanzase en 1995 el Intel Pentium Pro, la sexta generación de su arquitectura x86, hasta la llegada, hace ya dos años, de los procesadores Intel QuadCore de cuatro núcleos en los que, además, se ha conseguido una reducción sustancial del consumo energético. La eficiencia energética se ha convertido, en efecto, en una de las prioridades de los fabricantes de procesadores y equipamiento, embarcados en una frente común bajo el paradigma del ‘green computing’.
Pero nos estamos adelantando, en aquellos últimos años de la década de los 90 el tantra todavía lo constituían las arquitecturas cliente/servidor que, a pesar de sobrevivir aún hoy en determinados entornos, dejarían progresivamente de pronunciarse hasta verse prácticamente silenciadas por el advenimiento del revolucionario leit-motiv ‘web-based’ y las arquitecturas de tres capas.
Este doble avance tenía lugar de forma simultánea al veloz proceso de generalización de Internet que por entonces empezaba su carrera -en 1995 sólo existían en España dos suministradores de acceso a Internet- y que estaba llamado a impulsar una, si no la más importante transformación experimentada hasta el momento en el mundo TIC. Se abría un enorme abanico de posibilidades que progresivamente y bajo distintas denominaciones -e-business, on-demand, Saas y, más recientemente, cloud computing- iban a dibujar un escenario muy diferente al anteriormente conocido.
La tecnología deja de concebirse como producto para pasar a ser entendida como un servicio más a consumir, al igual que la electricidad, el agua o las comunicaciones. Y el usuario confía en la promesa de un acceso en tiempo real, en cualquier momento y lugar a las aplicaciones y la información que necesita para el desarrollo de su actividad, con independencia del sector en la que ésta se desarrolle.
De forma simultánea a la expansión de Internet, asistimos durante el último lustro de los 90 a la generalización del PC, y a un desarrollo sin precedentes de la telefonía móvil. En 1995 el número de usuarios de Internet en el mundo se situaba en 45 millones, de los cuales un 65 por ciento eran norteamericanos, y en España la cifra no superaba los 25.000; es decir, que en sólo cinco años la red sobre la que se levanta el mundo electrónico alcanzaría a un cifra de usuarios -50 millones- a la que la radio y la televisión habían tardado en conquistar 38 y 13 años, respectivamente. Una década más tarde, en 2005, la comunidad cibernauta mundial superó los 1.000 millones de miembros, es decir, aproximadamente un 15 por ciento de la población mundial. De ese total, un 23 por ciento eran norteamericanos, un 34 por ciento de la región Asia-Pacífico y un 24 por ciento europeos. Y, a día de hoy, de acuerdo con la consultora IDC, el número de internautas en el mundo asciende a 1.700 millones.
De forma simultánea a la expansión de Internet y también a lo largo del último lustro de la década de los 90, tuvo lugar un inaudito despliegue de infraestructuras de telecomunicaciones que venían a dar soporte a la multitud de nuevos servicios nacidos al calor del avance de Internet. Esa importante progresión de las comunicaciones, que en España y buena parte de los países de la órbita europea coincidió con el advenimiento de la liberalización del mercado de las telecomunicaciones, contribuyó significativamente al avance de los entonces conocidos como sistemas distribuidos, si bien la prometida descentralización no llegaría nunca a tener el peso que se esperaba e incluso en no pocas ocasiones se ha visto eclipsada por un retorno a la centralización-consolidación a tenor de la progresiva mejora de los niveles de latencia en Internet.
La mejora de las infraestructuras de telecomunicaciones, combinada con el crecimiento del uso de Internet, contribuyó a una insólita expansión del uso de los dispositivos móviles. Este fenómeno, que en España ha supuesto el paso en los últimos 15 años de un ratio de penetración del dos al 109 por ciento, ha hecho posible que en la actualidad más de 4.600 millones de habitantes del planeta dispongan de un móvil, de forma que a día de hoy y según IDC existen 450 millones de personas que acceden a Internet desde un dispositivo móvil y se espera que la cifra de usuarios de Internet móvil se duplique de cara a 2013 superando los 1.000 millones.
Estos factores han jugado un rol clave en la materialización de lo que a finales de la década de los 90 vino a denominarse la Sociedad de la Información y el Conocimiento. Pero para ello tuvieron que tener lugar previamente otros notables sucesos, destacando entre ellos la superación con éxito del temido Efecto 2000 y luego el Efecto Euro, que exigieron importantes esfuerzos e inversiones más que sustanciosas.
Tras estos dos saltos se extendió como una fiebre la denominada ‘nueva economía’ que degeneró en unas expectativas sobredimensionadas que inevitablemente acabaron desembocando en el inolvidable ‘estallido de la burbuja puntocom”. El trienio 2001-2002-2003 volvía a poner sobre la mesa la fragilidad del sector TI ante los vaivenes de la economía, en esta ocasión provocados por un frenesí exento de toda lógica y confuso ante el enorme potencial de las casi santificadas siglas B2B y B2C.
Superada, no sin víctimas, la debacle, a finales del año 2003 empezaron a vislumbrarse nuevamente los primeros síntomas de recuperación y por entonces ya empezaba a hablarse de un mercado TIC maduro. La economía digital, impulsada por la convergencia de la informática y las telecomunicaciones, era condición indispensable para la supervivencia. Y la estandarización y la integración se alzaron en el escenario TIC como la respuesta a la necesidad de que sistemas y aplicaciones hablasen entre sí al calor del avance del e-commerce, el CRM, el SCM, etc. Los servicios web y las arquitecturas orientadas a servicios (SOA) entran en escena y el software se erige en adalid de la perseguida interoperabilidad en un mercado en el que la venta de productos se ve superada por la provisión de soluciones arropadas por servicios. Las siglas BPM (Business Process Management) se convierten en la cara vista de la nueva orientación de los sistemas de información, enfocados a la gestión de los procesos de negocio y las siglas BPO (Business Process Outsourcing) vienen a dar un nuevo impulso al todavía entonces joven mercado de la externalización.
En paralelo se inicia una transformación fundamental en el modo en el que las organizaciones consumen la tecnología, que ya no se entiende separada del negocio y que, abandonando el caprichoso ‘nice-to-have’ sólo adquiere sentido cuando realmente aporta un rápido retorno de la inversión.
El fenómeno Google, nacido de la idea de un par de jóvenes estudiantes de la Universidad de Stanford -Larry Page y Sergey Brin- que inician en 1995 el desarrollo de un algoritmo para la búsqueda de información, se convierte en el mejor ejemplo de la transformación del modelo de consumo de sistemas y aplicaciones. Y es que, más allá de un mundialmente conocido buscador que genera ingresos millonarios en concepto de publicidad, Google constituye una plataforma para el acceso a servicios tan básicos y populares como el correo electrónico Gmail, tan útiles como Google Maps y tan productivos como Google Docs, entre otros. En la misma línea se sitúan propuestas como la de Salesforce.com, en el ámbito de las aplicaciones CRM, de gestión comercial y del marketing; las iniciativas SaaS lanzadas por la práctica totalidad de los proveedores de soluciones de gestión, y otras actualmente en desarrollo como el avance en cloud computing de Microsoft sobre la base de su plataforma Azure. El modelo, cuyo éxito tiene claros ejemplos en Amazon o eBay, constituye el primer estadio de una revolución en marcha que constituye al mismo tiempo un nuevo reto. Y es que el fenómeno ha propiciado la creación de grandes sistemas de almacenamiento -data warehouse- con los que organizaciones e instituciones pueden diseccionar el comportamiento, las necesidades e incluso los sueños de los ciudadanos.
Ciertamente, los volúmenes de datos aumentan tan rápidamente como la necesidad de analizarlos y tomar decisiones. En esa línea, las tecnologías de almacenamiento y análisis de la información han experimentado un avance sustancial en los últimos años, rompiendo la barrera de los petabytes al calor de los avances conseguidos en ETL y la incorporación de la tecnología de disco SSD (Solid State Disk), que dará mucho que hablar en los próximos años. Al mismo tiempo y a la búsqueda de máximas garantías de continuidad, las organizaciones se han volcando en la construcción de infraestructuras de respaldo que, gracias a los avances conseguidos en materia de replicación, tiene capacidad para operar bajo un modelo activo/activo que facilita el máximo aprovechamiento de los recursos.
Por otro lado y al calor de las nuevas arquitecturas y evolucionados modelos de trabajo en colaboración, las tecnologías de BI han experimentado en los últimos años una impresionante expansión dentro de las organizaciones facilitando la democratización de una más sabia y ágil toma de decisiones. Este último avance está directamente relacionado con uno de los fenómenos más notables de los últimos quince años: la explosión de la cantidad de información creada. Hace ya dos años los expertos previeron que este denominado ‘Universo Digital’ duplicaría su tamaño cada 18 meses, es decir, que estamos en los albores de lo que está por venir.
Al cumplimiento de esta previsión, recogida en un trabajo realizado por IDC con el patrocinio de EMC bajo el título ‘A medida que la economía se contrae, el universo digital se expande’, contribuirán una serie de factores a tener muy en cuenta. El estudio prevé que en los próximos cuatro años 600 millones de personas se convertirán en usuarios de Internet y, al mismo tiempo, las interacciones por medio del correo electrónico o las redes sociales se multiplicarán por ocho. Y es que, de acuerdo con el director de EMC Consulting, Mike Altendorf, “los dispositivos como los teléfonos con cámara incorporada y los servicios propios de la Web 2.0 han creado una verdadera legión de productores digitales”. Por su parte, los dispositivos TI no tradicionales -medidores inalámbricos, sistemas de navegación para automóviles, máquinas industriales, lectores RFID, controladores con sensores inteligentes, etc.- se multiplicarán por 3,6. Llegados a este punto, parece que definitivamente en este año 2010 asistiremos nuevamente a la recuperación del sector TIC. El retorno al crecimiento de las inversiones en TI -las previsiones de Gartner apuntan a un incremento para 2010 del 5,3 por ciento a escala global- es un claro síntoma positivo a la hora de afrontar el escenario de los próximos 15 años, donde las redes LTE y WiFi, las comunicaciones M2M y la web semántica nos acompañarán en el viaje. Estos compañeros serán indispensables para hacer realidad el pronóstico del futurólogo, Ray Hammond, “todo hablará con todo” y esto tendrá un impacto enorme en la industria permitiéndonos “avanzar desde una economía de mercado a una economía de suscripción”.
Las TIC, cuya omnipresencia impregna la práctica totalidad de las facetas de la vida humana, así como todos y cada uno de los sectores en los que se sustenta su economía, continuarán siendo fundamentales para hacer frente a los grandes retos del futuro: la explosión demográfica, el cambio climático, la globalización y la crisis energética. “En 2030 necesitaremos el doble de energía de la que necesitamos hoy”, recuerda Hammond, para añadir que “si bien la conservación es una respuesta, resulta prioritario encontrar nuevos recursos energéticos”.
En este escenario, junto con la virtualización, la automatización y el aprovisionamiento inteligente de los CPDs a la búsqueda de mayores ratios de eficiencia, el Software como Servicio (SaaS) y cloud computing emergen como las tecnologías con mayor potencial de impacto a futuro, de acuerdo con las predicciones de IDC, que también identifica las arquitecturas SOA y el incremento de las posibilidades de reutilización que SOA conlleva como una de las herramientas clave a la hora de afrontar el complicado momento actual y el futuro.
Especial Computing 15 años: La revolución TIC
15 años no es nada y al volver la mirada…
Publicado el 29 Jul 2010
Temas
Canales
Artículo 1 de 4