Sistemas a prueba de fallos

A medida que las empresas se abren a Internet y las consecuencias económicas de un ataque se incrementan, resulta cada vez más necesario analizar los costes derivados de la vulnerabilidad en la Red.

Publicado el 12 Dic 2001

Como primera medida, la empresa debe diseñar e implantar una política de seguridad mediante la definición de un paquete de normas, condiciones y prácticas que regulen cómo se gestiona, protege y distribuye en una empresa la información comprometida.

Los aspectos de esa política están compuestos por la organización de seguridad, clasificación y control de bienes, seguridad personal, protección ambiental y física, gestión de la red y equipos, además de control de acceso, mantenimiento del sistema y planificación de la continuidad del negocio.

Una vez que la política de seguridad se pone en práctica, hay que prestar especial interés a la red y añadir los elementos necesarios para asegurar la disponibilidad de la misma, incluyendo cortafuegos, aplicaciones de escaneo de contenidos y sistemas de autenticación.

Mientras la solución firewall refuerza las restricciones de seguridad y previene el acceso inapropiado a las redes internas, las aplicaciones de escaneo de contenidos incluyen detección y eliminación de virus, bloqueo de códigos malignos, filtrado de contenido y escaneo del correo electrónico.

La autenticación es así la piedra angular del comercio electrónico seguro. También se requiere para el acceso remoto a las redes corporativas, resultando en ambos casos una medida primordial para prevenir el fraude y el mal uso de los recursos de la empresa.

Por último, la detección de intrusos permite poner en marcha medidas de contraataque efectivas ante cualquier vulnerabilidad, de forma que el sistema detecte el ataque, avise al operador y ponga en marcha las acciones de contraataque predefinidas automáticamente.

En resumen, todas aquellas compañías que quieran tener la seguridad de que sus sistemas y redes no son vulnerables y están en continuo funcionamiento deberán dar cinco pasos definir una política de seguridad; reforzar la política de seguridad en la red; identificar todos los posibles puntos de fallo y hacerlos redundantes; señalar los elementos de la red que pueden sufrir sobrecargas, e introducir soluciones de balanceo de carga o clustering para protegerlos, adoptando las medidas necesarias para seguir el tráfico en la red y estar preparado para escalar los elementos más sobrecargados.

Vesku Turtia, consejero delegado de Stonesoft España.
Aunque pudiera parecer suficiente una disponibilidad de los servicios proporcionados al 99 por ciento, esto significa que el sistema permanece caído 87,6 horas al año. Por esta razón, en muchas empresas la disponibilidad del sistema tiene que ser igual o superior al 99,999 por ciento, soportando como máximo una caída de 5,26 minutos al año.

La alta disponibilidad implica que el sistema debe proporcionar redundancia de cada elemento y servicio de la red, así como detección y recuperación automática de fallos. Además, requiere que las operaciones de mantenimiento on line se puedan efectuar sin perturbar el tráfico. Para evitar problemas de sobrecarga, los elementos clave deberían estar protegidos con funcionalidad de balanceo de carga.

Otro elemento básico pasa por la detección automática de fallos en el sistema, que debe ejecutarse en varios niveles permitiendo la localización de fallos en el hardware y en el software. Si el sistema detecta un fallo, debe conducir el tráfico a una unidad completamente operativa, y advertir al administrador de la situación. El objetivo final consiste en que el usuario de un servicio no detecte ninguna perturbación en el tráfico.

Igualmente, una de las razones más comunes para las pausas de servicio es el mantenimiento, ya sea del hardware, del software o de la propia red, ya que los administradores tienen que parar un nodo, efectuar las operaciones de mantenimiento y volver a activarlo durante las horas habituales sin que se produzca ningún percance en el tráfico.

Como añadido, es necesario prevenir la sobrecarga de los componentes del sistema, de forma que todos los puntos susceptibles de convertirse en cuellos de botella del rendimiento deberían estar equipados con funcionalidad de balanceo de carga, aún mejor si el sistema permite la distribución de la carga de manera dinámica a medida que cambia el tráfico.
A medida que las empresas se abren a Internet y las consecuencias económicas de un ataque se incrementan. Así, se necesita analizar el coste de la vulnerabilidad en la Red, así como los elementos de seguridad con que debe contar la empresa.

La seguridad se ha convertido en un elemento de primera magnitud para las empresas. La llegada de Internet ha hecho que los riesgos se hayan incrementado enormemente, convirtiendo la Red en una puerta de entrada de ataques a la empresa.

Partiendo de esta premisa, habría que considerar los problemas de seguridad desde dos puntos de vista. Por un lado, cómo afectan los fallos a cualquier empresa que esté conectada a Internet y, por otro, cómo puede perjudicar a aquéllas que se dedican al comercio electrónico.

En el caso de las primeras, los efectos de un ataque pueden paralizar la infraestructura informática de la entidad y con ello su actividad, acarreando importantes pérdidas económicas. Sin embargo, cuando afecta a las operaciones e-commerce, el menoscabo es mucho mayor al colapsar su actividad comercial, parón que puede generar una pérdida de confianza irrecuperable por parte de los clientes.

El Financial Times publicaba un estudio en febrero de este año en el que sumaba hasta 34.000 millones de pesetas en pérdidas provocadas por la imposibilidad de acceder a páginas web de empresas, cifra que según las previsiones del informe se duplicará este año. Es difícil evaluar el coste derivado de un parón en los sistemas de Internet durante una hora, aunque en términos generales esa cifra se sitúa entre 18,7 y 187 millones de pesetas, dependiendo del tipo de compañía y de la clase de negocio que desarrolle.

Así, la consultora IDC ha identificado los cuatro puntos en los que se pueden establecer caídas la red, los servidores, los sistemas operativos y las aplicaciones. Dentro de la red, las causas más comunes responden a la conexión al ISP y una sobrecarga de la LAN.

En cuanto a los sistemas, las paradas normalmente resultan de la sobrecarga de la CPU o el fallo de la tarjeta de red. Respecto a las aplicaciones, lo más habitual es que se produzca una ralentización en el rendimiento de las bases de datos y paradas en el procesamiento.

Ante este panorama, las corporaciones se enfrentan a riesgos procedentes de dos frentes el rol de Internet y el incremento en la cantidad de tráfico en la Red, así como la susceptibilidad a las perturbaciones de las aplicaciones críticas para el negocio.

Para evitar esta situación, las empresas deben conceder la misma importancia a la disponibilidad y a la seguridad. Una solución global tendrá en cuenta ambas cuestiones, mientras que la solución elegida debería presentar facilidades para crecer a medida que lo hagan las necesidades de negocio y la cantidad de tráfico.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 4