Ladrillos cogidos por la Red

Tratar de resumir en unas pocas líneas las tendencias venideras en lo que a hardware y software se refiere es poco menos que imposible; así, a continuación se hace un balance de lo más relevante.

Publicado el 07 Nov 2001

Aunque en un principio pudiera pensarse que el mundo del hardware apenas sí se ha visto -y se verá- afectado por el fenómeno Internet, una mirada más profunda en seguida desvela que se ha producido el efecto contrario, aunque en mucha menor medida que el software.

En el área de los procesadores, el camino se dirige hacia la nanotecnología, aunque parece que todavía le resta un largo camino por recorrer, por lo menos hasta poder comenzar a producir sistemas en masa. Antes de que se pueda llegar a eso hay que superar problemas tan básicos como la ley de Ohm, que indica que la resistencia es indirectamente proporcional al decrecimiento de la distancia de las secciones; o el simple calor de la circuitería. En cualquier caso los procesos de producción cada vez serán de menor número de micras.

En lo que a servidores se refiere, podremos encontrar cada vez más una mayor implantación de los de propósito específico -multifunción, ámbito web, caching, seguridad, ficheros de almacenamiento, email, etc. Asimismo, es un hecho que los servidores en rack, cada vez con mayores posibilidades de escalabilidad, irán ganando terreno a las torres. Por su parte, los servidores de propósito general y su evolución están íntimamente relacionados con el progreso de los procesadores pero, en cualquier caso, todos se encaminan hacia nuevas políticas de precio por demanda y uso de CPU, con mayores prestaciones de manipulación en caliente, absolutamente todos los elementos redundados y particiones tanto físicas como lógicas.

El PC, tan denostado en los últimos tiempos, no desaparecerá como algunos fabricantes vienen diciendo, pero sin duda alguna su utilización se verá muy reducida, habiendo sido ya muy desplazado en la actualidad como dispositivo de acceso a la red, tal y como se apunta en la página 34 de este Especial.
Una de las definiciones más utilizadas para referirse a Internet ha sido la frase información en la yema de los dedos. Si bien es ciertas esta idea, no es menos cierto que toda esa información de la que disponemos a través de la Red ha de ser depositada en algún sitio y es ahí donde entra el almacenamiento. El aumento de la información digital para el despliegue de las aplicaciones de comercio electrónico y la creciente necesidad de proteger la información corporativa residente en los equipos cliente de sobremesa y los ordenadores portátiles son algunos de los factores que más impulsarán este mercado.

Decir que este segmento se encamina hacia las redes -SAN, NAS- es una obviedad, puesto que eso es ya un hecho -aunque debe alcanzar la OpenSAN-; sin embargo la introducción del almacenamiento IP es hoy por hoy el embrión de lo que en poco tiempo revolucionará el acceso a los datos almacenados en el otro extremo del mundo.

Podría decirse que el ámbito del almacenamiento se articula en cuatro grandes ámbitos la protección de los datos y su archivo, en donde se incluye la denominada gestión jerárquica del almacenamiento (Hierarchical Storage Management -HSM-), la gestión de todos los recursos de gestión del almacenamiento, la replicación y otras utilidades críticas como es la recuperación de la información. En la actualidad y a pesar de haber alcanzado una elevado grado de madurez, la protección de los datos y su archivo experimentarán importantes innovaciones; sin embargo, será el ámbito de las gestión de los recursos el que mayores progresos realice con la adopción de herramientas mucho más sofisticadas.

La virtualización, por su parte, se ha convertido en el gran revulsivo del almacenamiento, favoreciendo precisamente a esa gestión de los recursos. Gracias a esta tecnología no sólo se aprovechan mucho más las infraestructuras existentes -se superan limitaciones físicas tanto de los discos como de las cintas- sino que, además, se obtienen grandes beneficios en materia de transferencia de archivos, backups, mirroring o copias point in time, entre otros, derivando en un impresionante ahorro de los costes. Sin embargo, también la virtualización precisa de estándares que aporten mejoras en las capacidades de ajustes de la configuración, mejor rendimiento y mayor robustez de los sistemas a través de la interoperatividad de todos los elementos participantes. La SNIA (Storage Networking Industry Association) ya cuenta con un proyecto de estándar de virtualización abierta para las áreas de alto rendimiento y disponibilidad, ahorro de costes, seguridad o soporte para el backup serverless.
En este pequeño análisis de lo que está por venir, se han eludido adrede evaluaciones o pronósticos de consultoras por lo dispares de sus cifras, si bien es cierto que la mayor parte de ellas coinciden en ciertas materias. Asimismo, también se han eludido a propósito nombres de fabricantes o desarrolladores salvo en los casos imprescindibles por tratarse de tecnologías propietarias.

Lo que desde luego es un hecho indiscutible es que en la actualidad todo se ha visto modificado drásticamente por el fenómeno Internet, y esta circunstancia se prolongará en el tiempo. En este sentido, tanto hardware como software se han visto sometidos a las leyes marcadas por la Red y, por ende, los negocios que sostienen la economía también. De esta manera, las infraestructuras de las empresas ni serán de ladrillo y cemento, como se suele decir de las organizaciones más tradicionales, ni totalmente virtuales; es, más bien, una mezcla de ambos ladrillos cogidos por la Red.

La nueva era que se nos avecina es el reinado de la interactividad, de la colaboración, y esto se plasma fundamentalmente en el apartado del software. Sin duda alguna, el gran prodigio en el ámbito del software, si de veras consigue llegar a buen puerto, será el del fenómeno Open Source, íntimamente ligado a Internet. Gracias a este fenómeno, toda la comunidad de programadores puede conseguir un producto final de gran acabado, puesto que en un mismo punto confluyen cientos, miles de profesionales, con lo bueno y malo que tiene esta situación. La teoría, hay que admitirlo, es extraordinaria, pero cuando se lleva al terreno de la práctica los preceptos sobre los que se levanta la filosofía Open Source no son tan parecidos.

La máxima expresión de este fenómeno es Linux, que será el protagonista del segmento de los sistemas operativos, para bien o para mal, robando protagonismo al recién llegado Microsoft Windows XP. Esta aseveración se sostiene del siguiente modo el sistema del pingüino ha levantado tal expectación que tanto si finalmente fracasa como si obtiene éxito copará primeras planas de la prensa especializada, dado que ha conseguido acaparar enormes cantidades de recursos totalmente ajenos al movimiento Open Source. Cada paso que dé en dirección a un incremento de su base instalada en el ámbito corporativo será un punto positivo, mientras que de Windows XP se dan por hecho, dada la trayectoria de sus versiones antecesoras, muchas cifras -a pesar de que Windows 2000, al menos en nuestro país y a la luz de todos los usuarios que hemos ido tratando a lo largo de este medio desde su lanzamiento, no ha calado demasiado profundo.

En definitiva, en el mercado de los sistemas operativos se espera una progresión ascendente de los desarrollos de Microsoft -estará incluso en los cajeros automáticos-mientras asistimos a una lenta ralentización de los sistemas Unix propietarios y esperamos si la sorpresa Linux pasa o no de eterna promesa o crack.

Además, el horizonte final apunta a entornos de como mínimo 64-bit, pero para esto todavía habrá de pasar mucho tiempo por lo que tanto fabricantes como usuarios no deberán perder de vista los de 32-bit, que son más que suficientes para cierto tipo de aplicaciones, ofreciendo compatibilidad binaria con su superior.
Pero el ámbito del software engloba mucho más que los sistemas operativos, los estándares como XML (eXtensible Markup Language) o tecnologías como Java, que seguirán su curso afianzándose aún más. De esta manera, los servidores de aplicaciones constituyen otro de los platos fuertes del software. En realidad, estos desarrollos vienen a ser una solución de hardware y software integrado que engloba un buen número de herramientas con las que disfrutar de plataformas para el desarrollo de aplicaciones e-business. Ha sido uno de los mercados que mejor expectativas tiene, con unos crecimientos explosivos apoyados sobre la base de que han conseguido cambiar la manera de pensar de muchas empresas, por su sencillez, hasta el punto de que a veces se ha pecado de adquirir cosas que sobrepasaban las necesidades reales de la organización. Además, la nueva oleada de servicios web, aún por desarrollar -no se ha realizado prácticamente nada- es otro impulso más para los servidores de aplicaciones.

Por otro lado, esta número de aplicaciones e-business ha de nutrirse de un contenido que cada vez es más abundante y que, además, se encuentra en viejos esquemas monolíticos de sistemas heredados, complicados de migrar a los entornos web. Ahí es precisamente donde surge toda una amalgama de herramientas para no sólo la gestión del contenido, sino de su personalización, tratamiento y transformación adecuada al nuevo marco. La lógica hace pensar que cada vez más la fórmula del bundle de productos de estas características se irá extendiendo, aunando de base a los servidores de aplicaciones con completas suites para el contenido y la oferta de bases de datos con capacidades web, lo que elimina grandes quebraderos de cabeza de integración. Punto, el de la integración, especialmente delicado y para el que la industria entera se confabulará para tratar de conseguir mayores niveles de integración de las aplicaciones corporativas, entre las que el software de gestión y monitorización de sistemas será piedra angular.

Por otro lado y como se ha citado anteriormente, la interacción y cooperación en estos nuevos entornos es crucial y precisamente por ello el software de colaboración para workflow en tiempo real y con capacidades web será uno de los factores que otorgen verdaderas ventajas competitivas a las empresas frente a sus más directos rivales. El objetivo es conseguir un entorno integrado de colaboración en el que, además, todas las comunicaciones se encuentren bajo un mismo paraguas, esto es, donde exista mensajería unificada. Así, las aplicaciones de mensajería unificada están erigiéndose como otra de las herramientas clave, cuyos desarrollos encontrarán un verdadero disparadero en el crecimiento de las PBXs basadas en IP y las mejoras realizadas tanto en materia de fiabilidad como de escalabilidad en los sistemas de comunicación, ya sean con o sin hilos. Tecnologías como los protocolos 802.11a y 802.11b para WLANs se verán muy beneficiadas y, en cuanto, a Bluetooth, quedará para ámbitos de actuación básicos.

Íntimamente relacionado con la mensajería unificada y la integración de los canales de comunicación se encuentra el software de gestión, no sólo el de ERP con su segunda y hasta tercera generación, sino todos los que confluyen en el proceso comercial como CRM -serán de especial relevancia los mercados de automatización de ventas, de marketing y de atención al cliente y contact centers- y SCM, entre otros.
Con la llegada de Internet, cualquier negocio mínimamente ligado a la nueva economía tendrá que abrir sus redes internas, servidores, aplicaciones, etc., en definitiva, desnudará ante ojos extraños una gran diversidad de recursos que antes no traspasaban la barrera del cierre metálico.

La seguridad es autenticación, es autorización y es administración, las tres famosas As que toda empresa debe cuidar rigurosamente. Sin estas tres, cualquier intento de hacer algo parecido al e-business será un pura quimera, sin olvidar la confidencialidad, protección e integridad de los datos.

Desarrollos de seguridad existen muchos, pero sin duda alguna los cortafuegos -ya sean hardware o software- y el establecimiento de las redes privadas virtuales constituyen dos de las grandes bazas en este ámbito. En realidad, que nadie se engañe, la seguridad al cien por cien es imposible, pero desde luego para conseguir lo máximo no se puede confiar sólo en hardware o en software. Es más bien una combinación de ambos pero, además, entremezclado con tecnología de conectividad y, cómo no, con unas correctas políticas, auditorías y el más riguroso mantenimiento con sus puntuales actualizaciones.

Sin embargo, todo hace indicar que el software destinado a este propósito terminará por estar embebido en otro tipo de desarrollos, sin que el usuario tenga que prestar atención a su adquisición.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 3