El difícil camino del rendimiento óptimo

Son muchos los factores que intervienen en hacer que una máquina sea la adecuada para cada necesidad, pero hasta no hace mucho, la velocidad del procesador era casi la única garantía de buenas prestaciones.

Publicado el 31 Oct 2000

Pruebas como los conocidos benchmark y las pruebas TCP han puesto de moda el concepto de que no sólo el/los procesador/es son importantes, sino también la placa sobre la que van montados, la arquitectura de la misma, la velocidad a la que los datos transitan por ella, e incluso las conexiones que garantizan el acceso a los datos, todos esos y otros muchos parámetros mediatizan el rendimiento final de una máquina. Pero también es fundamental que el software que trabaja en ella esté lo más adaptado posible a ese hardware, porque de esa sintonía depende que el sistema ayude u obstaculice los procesos de cualquier compañía.

Si hablamos de prestaciones puras y duras, un error bastante frecuente es emplear como unidad de medida los MHz o velocidad del reloj del procesador. Los megahertzios no nos dicen la velocidad a la que se ejecutará una consulta a una base de datos, y mucho menos la capacidad de respuesta que puedan tener nuestros sistemas ante una aluvión de consultas vía web. Por tanto, no basta con comparar la velocidad de los relojes para medir la prestaciones.

Con el fin de medir de alguna manera los rendimientos la industria ha creado los Benchmarks, programas que miden las prestaciones de un ordenador, o de una parte del mismo. Estos programas no solo pueden ayudar en la comparación de diferentes sistemas, sino que además son capaces de evaluar las prestaciones de un equipo con diferentes configuraciones de Software y Hardware. Cada test Benchmark realiza un trabajo diferente. Así, algunos de estos nos indican lo rápido que es un ordenador generando documentos, otros indican lo veloz que es en los gráficos y rellenos de pantalla, otros determinan la velocidad en operaciones matemáticas… Algunos hacen una mezcla de todos estos test. Para obtener resultados que nos sean útiles deberemos utilizar Benchmarks que reflejen el uso que le daremos al sistema motivo del análisis.
En cuanto al software, los fabricantes se centran en satisfacer el deseo general de los usuarios de consolidar el número de servidores que utilizan con el fin de reducir el costo de sus redes. También buscan las maneras de aumentar la disponibilidad de los servidores para mejorar el acceso a los usuarios, lo que es especialmente importante a medida que la web de las compañías sean más críticas para su negocio y estas webs necesitan estar disponibles constantemente.

Los fabricantes, como es el caso de Lotus, están trabajando para aprovechar algunas de las capacidades de los nuevos sistemas, tales como el poder de explotar los procesadores más rápidos, aprovechar mayor número de procesadores y más memoria, y poder explotar los sistemas más potentes tales como el AS/400, OS390 y los de Unix como Solaris (Sparc), RS6000 y HP-UX.

El hecho de que la plataforma software contemple las peculiaridades del hardware supone una gran ventaja en cuanto a rendimiento de los sistemas, ya que optimiza los recursos hardware, y con ello abarata costes. Arquitecturas de multiproceso simétrico (Symmetric MultiProcessing – SMP) son adecuadas para responder con soltura a los nuevos retos de escalabilidad.

Uno de los principales problemas que afectan directamente al rendimiento de los sistemas es el de la entrada y salida de datos a disco, ya que se ha convertido en el principal punto de embotellamiento en los sistemas. Si a él unimos aspectos como la fiabilidad y seguridad, estaríamos frente a los obstáculos más característicos con los que se encuentra el director de sistemas en las infraestructuras que debe manejar.

En este sentido, Microsoft, consciente de que en el escenario actual, las empresas que se mueven en entornos críticos de negocio requieren de sistemas que garanticen continuamente óptimos niveles de fiabilidad, considera que existen dos condicionantes principales para conseguir un nivel pleno de disponibilidad; por un lado, las máquinas tienen que ser individualmente lo más fiables posible y deben estar preparadas para una recuperación de fallos en caso necesario, además , por otra parte, cualquier punto de error debe poder ser inmediatamente localizado y eliminado.

Para alcanzar este objetivo con un impacto mínimo en el rendimiento global y sin pérdida de datos, previendo al mismo tiempo redundancia de hardware y capacidad de tolerancia de fallos, Windows 2000 en su versión Datacenter Server dispone de componentes específicamente adecuados para embarcarse en cualquiera de ellas Balanceo de Carga de Red (NLB), Balanceo de Carga de Componentes (CLB), y Servicios de Clustering, que en el caso de Datacenter Server soporta la caída de hasta 4 nodos para las aplicaciones críticas.
Elemento también a tener en cuenta por los directores de sistemas es el tema del almacenamiento, que suele convertirse en un problema permanente, tanto por el hecho de que cada vez se necesita mayor cantidad de Gigas, como por la capacidad de respuesta que han de tener. Aquí SAN (System Area Network) es una clase particular de arquitectura en red que utilizada interconexiones de alto rendimiento entre los servidores, posibilitar, con un alto ancho de banda y un bajo grado de saturación y latencia, comunicaciones entre los procesos disponibles, normalmente a través de una subred de tipo IP. SAN, que utiliza conectores para enroutar los datos, consigue, con un hub tradicional, llegar a soportar ocho o más nodos, y la expansión de grandes redes a través de la utilización de cascadas de hubs. Las limitaciones en la longitud del cable pueden oscilar entre unos pocos metros y unos pocos kilómetros.

SAN proporciona globalmente un mayor ancho de banda y una menor latencia con una velocidad de línea comparable a la de las redes tradicionales, consigue la exposición del Acceso Directo a la Memoria (DMA), también conocido como interface de memoria, ofrece una interface protegida frente al modo usuario para la interface del hardware SAN, ya que SAN debe mantenerse físicamente segura, y alcanza la unión total de conexiones de punto a punto, además de lograr la exposición a contextos individuales de punto final.

En cualquier caso, como podemos comprobar, el procesador se queda, al final, como una pieza más que evidentemente ayuda, pero no es definitiva en las estructuras informáticas de las empresas.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4