Índice de temas
Qué es streaming de datos
El streaming de datos, proceso que permite la transmisión continua de datos, fue el eje temático del encuentro online organizado por Computing en colaboración con Confluent. Confluent es una compañía especializada en este campo y cuya misión es obtener y procesar datos en tiempo real. Una función básica para poder optimizar las operaciones y la toma ágil de decisiones de las compañías.
Confluent acerca el dato al negocio
En España, la compañía ya cuenta con más de 70 clientes, abarcando sectores como banca, retail, viajes y manufactura. David Torres, Enterprise Account Executive de Confluent, resume la fuerza de su compañía en su capacidad para “acercar el dato al negocio en tiempo real”. Como muestra ilustrativa, uno de sus usuarios más representativos, Evo Bank, ha conseguido reducir en un 70% sus procesos decisorios.
Torres también destaca el enfoque de la empresa en la integración de sistemas, la migración a la nube, el uso de microservicios y la seguridad. “Al ponernos en esa capa del dato, permitimos tanto el acceso al extremo del dato como su procesamiento”, añadió.
Gestamp: transformación digital e Industria 4.0
Para una empresa como Gestamp el streaming de datos se ha convertido en un factor estratégico, toda vez que está inmersa en “la transformación digital y en la Industria 4.0”, como enfatiza Diego Mallada, IT Director y líder de la línea tecnológica de este fabricante de componentes de automoción.
Gestamp comenzó su viaje en la conexión de dispositivos en fábricas en 2016, centrándose inicialmente en la eficiencia energética.
“Desde entonces, hemos evolucionado desde productos comerciales hacia una iniciativa propia de desarrollo de productos digitales”, menciona. En este contexto, subraya que han integrado diversas fuentes de datos, incluyendo sistemas de calidad y ERP, gestionando grandes volúmenes de información. “Nuestra solución de IoT maneja de 5.000 a 6.000 variables por proceso industrial, algunas con una resolución de dato por debajo de los 100 milisegundos”.
Mallada también menciona la creación de una estrategia global de datos, que abarca tanto aspectos técnicos como de gobernanza.
Propietarios de los datos
El experto de Gestamp apunta la importancia de establecer propietarios de los datos con las habilidades necesarias dentro de la estrategia de gestión. “Esto es clave, ya que debemos asegurarnos de que estén al día para trabajar eficientemente”, afirma. Este enfoque lo vienen aplicando tanto en el ámbito de los datos como en el desarrollo de productos digitales, creando “un ecosistema federado global”.
Mallada subraya que el valor real proviene de tener personas descentralizadas cerca de los procesos. Considera que, aunque algunos aspectos pueden estandarizarse, las realidades en diferentes fábricas (Gestamp cuenta con plantas en 24 países) son muy distintas.
Por lo tanto, insiste en la necesidad de trabajar en un ecosistema global federado que mantenga reglas comunes, pero que también permita adaptaciones específicas a cada región.
Cumplimiento normativo
Óscar Gómez, Solutions Engineer de Confluent, por su parte aborda, la importancia de implementar políticas robustas en el entorno DevOps para asegurar el cumplimiento normativo. “Todo el mundo DevOps debe aplicar estas políticas y garantizar su cumplimiento”, señaló. Además, destaca que las herramientas de gobierno permiten rastrear la historia de los datos desde su entrada hasta su disponibilidad, lo que “cierra el círculo y asegura que se cumplen las regulaciones”.
Gómez también subraya la independencia de las políticas respecto al origen de los datos. “El productor de datos conoce su origen y es capaz de transformar su información para cumplir con estas políticas”, explica.
La importancia de la ciberseguridad en el streaming de datos
La cadena hotelera RIU es uno de los grandes clientes de Confluent. Y es en el área de ciberseguridad donde el movimiento de datos resulta clave. Así lo explica Marco Roldán, integrante del equipo de Ciberseguridad: “Utilizamos herramientas de colaboración entre grupos, pero nuestra operación es mayormente interna. Lo que compartimos externamente está respaldado por herramientas como SIEM, que monitorizan eventos para detectar comportamientos sospechosos, como solicitudes excesivas que pueden indicar un escaneo”. Otra medida es “encriptar los datos en nuestros equipos para que solo personal con el certificado adecuado pueda acceder a la información, asegurando que los externos no puedan interpretarla”.
En este punto, interviene David Torres: “resulta crítico extraer datos de manera eficiente para su uso en diferentes plataformas de seguridad. Nuestro objetivo no es eliminar la seguridad, sino optimizar la forma en que la información se distribuye, permitiendo una detección más rápida de amenazas, algo especialmente relevante en el sector bancario”.
Accesibilidad, seguridad y eficiencia operativa
En resumen de lo comentado durante la reunión, la gestión de datos en entornos empresariales e industriales no solo implica el reto técnico de manejar volúmenes masivos de información, sino también la necesidad de establecer un equilibrio entre la accesibilidad, la seguridad y la eficiencia operativa. Como destila finalmente Torres: “las empresas deben seguir avanzando en estrategias que permitan un tratamiento óptimo de los datos, apoyándose en tecnologías como el streaming, la observabilidad y la inteligencia artificial, pero siempre dentro de un marco de trazabilidad y gobierno adecuado”.