La importancia de la ciencia de datos en la gestion de infraestructuras Telco

Pablo Manuel García Corzo, Solutions Architect en Blue Telecom Consulting (BlueTC), aborda la importancia de las capas de monitoreo y analítica en entornos virtualizados.

Publicado el 20 Jun 2018

Pablo Manuel García Corzo, Solutions Architect en Blue Telecom Consulting

Los casos en los que se emplean técnicas de monitoreo combinadas con analítica avanzada están muy extendidos y su utilidad es cada día más reconocida. La llegada de los entornos virtuales a los operadores de telecomunicaciones impulsa el uso de esas herramientas, pues son el único modo de ofrecer la visión necesaria para poder entregar la mejor calidad de servicio, generando, a la vez, eficiencias en operaciones. Pero no solo eso…

La virtualización de redes e infraestructura añade complejidad

Las capas de virtualización y el auge de las “cosas definidas por software” (IAAS, PAAS, SDN, NFV…) proporcionan mucha más flexibilidad, pero también incrementan la complejidad del desarrollo, gestión, mantenimiento y operación de las redes de telecomunicaciones.

La buena noticia es que, en paralelo, ha tenido lugar una revolución DevOps que ha logrado integrar las metodologías y herramientas propias de los entornos de desarrollo en las operaciones. Así, la forma de crear, testear, lanzar y gestionar los servicios telco ya no se puede entender en base a actuaciones manuales. Ahora, todo se basa en crear recetas de despliegue en los sistemas de gestión de la configuración. De esta manera, la automatización no puede entenderse ya como una vía para ahorrar tiempo y reducir costes, sino como un requisito para poder abarcar la complejidad de las operaciones. Precisamente, esos procesos también pueden beneficiarse de la integración de una capa de monitoreo y analítica, integrando el control de la infraestructura y sistemas virtuales con las metodologías DevOps.

La automatización debe entenderse ya como un requisito para poder abarcar la complejidad de las operaciones

Sistema de monitoreo con una capa de analítica

La recolección de datos y una analítica correcta de ellos son acciones necesarias para entender bien la infraestructura, caracterizar los productos y servicios y asegurar los entornos virtuales. En un entorno virtualizado gestionado con metodologías DevOps, los sistemas de monitoreo se pueden volver inteligentes, permitiendo no solo predecir problemas futuros sino determinar las acciones requeridas para corregirlos.

La combinación de herramientas y tecnologías punta con algoritmos de machine learning ha resultado en la creación de un sistema de monitoreo complejo completado por una capa de analítica que permite, entre otras cosas:

  1. Monitoreo de protocolos
  2. Predicción de incidencias
  3. Detección de intrusiones
  4. Detección de anomalías

De sistemas automatizados a autónomos

Una vez se logra tener una visión clara del estado y rendimiento de la infraestructura NFV, el próximo paso será implementar e impulsar la automatización, que es el último ingrediente en una organización realmente impulsada por datos.

Las alarmas detectadas pueden ser procesadas con el fin de integrar acciones automatizadas que permitan disparar tareas correctivas ante una incidencia, dimensionar dinámicamente los entornos, tomar medidas de protección ante posibles amenazas, etc. Ese tipo de procedimiento, junto con el desarrollo de nuevas recetas para tipos de alerta no gestionadas, consolida un primer paso hacia la utopía de la infraestructura denominada “zero touch”, algo que muchos operadores anhelan.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

Redacción

Artículos relacionados

Artículo 1 de 2