Computing, junto con la tecnológica especializada en integración de sistemas, NTT Data, y su partner Amazon Web Services (AWS), ha reunido a expertos en la gestión de nube de compañías públicas y privadas de diferentes sectores en el restaurante con Estrella Michelin de Ramón Freixa, para que compartan su experiencia acerca del control de costes y recursos en el intrincado y cambiante entorno cloud.
Con distintos grados de adopción, todas las compañías del encuentro han hecho diferentes aproximaciones a la nube y están lidiando con temas como la seguridad, el vendor locking o la observabilidad de los sistemas. Lo que sí tienen claro los expertos es que “antes de adoptar la nube es importante preguntarse por qué y para qué”. Es necesario hacer un análisis del negocio y ver qué compensa llevar a la cloud y qué no. De ahí el auge del ecosistema híbrido -en parte cloud y en parte on premise- de los últimos tiempos. No en vano, “España es el país de la Unión Europea con mayor grado de hibridación cloud”. Y es que, como dijo abriendo el debate Carlos Valero, Infraestructure Partner de NTT Data: “La nube, más que el destino, constituye una forma de trabajar”.
Luis Felipe Coco, director de Plataformas e Infraestructuras TI de Telefónica, dijo tener el 50% de sus sistemas en la cloud pública y el otro 50% on premise, “aunque contamos con un plan de viaje a la nube que va a aumentar el porcentaje de nuestros sistemas en cloud”. En Telefónica, los entornos de red y de TI “pura y dura” están en local, mientras que están transformando su core de negocio en soluciones de Oracle, como la suite SOA y el Sistema de Información de Clientes, (CIS, por sus siglas en inglés) que, junto con los entornos de Kubernetes, han sido implementados en la cloud con proveedores como AWS, Microsoft Azure y Google Cloud. “Nuestro objetivo es dejar de tener mainframe para 2024. La hibridación aporta unas capacidades muy interesantes gracias a los data centers virtuales”, añadió Coco.
Sin embargo, para Federico Esteban, Data Evolution Program manager de BBVA, “el mainframe continúa siendo muy importante”, no obstante, hacen un “uso masivo de las nubes de los tres principales hiperescalares”. Narciso Cerezo, Global FinOps manager de la entidad bancaria, añadió que tienen “hibridados casi todos nuestros sistemas, excepto la plataforma global de datos, que la estamos migrando por entero a la nube de AWS, aprovechando la capacidad de innovación que esta nos aporta y avanzando hacia un modelo de servicios gestionados”.
La apificación te puede salvar del vendor locking, pero hacerte caer en el ‘self-locking’ por un exceso de customización
Hablando de datos, el Instituto Nacional de Estadística (INE) tiene los datos como su principal materia prima. El INE se ha sumado a la lista de empresas que están intentando desembarazarse del mainframe, que “crea mucha dependencia y limita la adopción de tecnologías disruptivas”, afirmó Eva Ortiz, subdirectora general de Tecnologías de la Información y las Comunicaciones del INE. “Estamos en un periodo de transición a la nube del sector público, reforzada por la inversión de los Next Generation. Para ello, contamos con un proveedor de infraestructura externo y dos data centers. Empezar a experimentar con la nube SARA puede que nos permita saltar a una nube más grande en el futuro”. Además, la cada vez mayor falta de espacio para alojar los data centers de la que adolecen las instituciones públicas como el INE, les ha impulsado a dar el salto a la cloud.
Cepsa es otra empresa que tiene la mayor parte de sus datos -un 75%- en la nube con AWS. “En Cepsa hacemos simulaciones de yacimientos de petróleo continuamente. Antes de ir a la nube tardábamos uno o dos días en hacerlos, ahora tardamos horas. La nube a largo plazo es cara, pero hay ciertas actividades con mucha demanda de cómputo o tecnologías punteras, como la inteligencia artificial generativa, que sería imposible desplegarlas on premise”, explicó Víctor Blanco, Chief Information, Digital and Cybersecurity Officer de la petrolera. La única “pega” que le encuentra Blanco a la cloud es “la dificultad de estimar el uso que vas a hacer de ella, y dividir este uso entre funciones y negocio”.
El Ministerio del Interior está dando “pasos en la cloud, pero muy lentos”. Hace ocho años que implantaron un data center de cloud privada. “Tenemos un data center con los servicios tradicionales, un siguiente nivel con IaaS para sistemas virtualizados y para mover cargas de trabajo de manera sencilla, y un tercer nivel, al que nos estamos aproximando, con tecnología cloud de Kubernetes y OpenShift de Red Hat para la automatización e industrialización de los sistemas”, contó Francisco Alonso Batuecas, jefe del Área de Infraestructura y Seguridad TIC del Ministerio. Sin embargo, señaló que “la cloud privada no deja de ser un entorno on premise con capacidades de ‘contenerización’ y ‘apificación’. La convivencia ideal está basada en contenedores y microservicios”.
Índice de temas
El debate de los costes y el vendor locking
Con el paso del tiempo, los distintos modelos de adopción de la nube han ido cambiando y adaptándose a las necesidades de los negocios. Aun así, todavía existen compañías que confían toda la gestión y el control a los proveedores de cloud sin hacer ellos un análisis de lo que más les conviene, lo que supone una pérdida de tiempo y dinero. Pablo Ruiz-Hidalgo, director de Ventas Cloud de Ingram Micro, planteó la posibilidad de que los proveedores lanzaran una tarifa plana de cloud: “Pagas por consumir cierta cantidad de nube y, a partir de esa cantidad, abonas un precio fijo”.
Un modelo que a algunos expertos les pareció “un cambio radical y complicado en la forma de cobro del cloud”. Cerezo apuntó que “todas las empresas cierran una serie de acuerdos con los proveedores para llegar a un tope de consumo cloud y, a raíz de ahí, contar con una serie de ventajas o descuentos”. No obstante, Blanco apuntó que ya existe una opción similar a la tarifa plana, “como lo que tiene VMware Cloud con AWS, una virtualización privada de la nube pública por la que las compañías pagan una tarifa fija anual, da igual lo que consuman”.
Con FinOps, desde Negocio también tienen un control y una responsabilidad del gasto que hacen en
tecnología
Para “ponerle las riendas al caballo de los costes”, Finanzas y Operaciones se han unido en un término conocido como FinOps, que ya muchas organizaciones están adoptando. Rafael Pacheco, Senior Solutions Architect de AWS, incidió en que “aplicar FinOps no te supone tanto un ahorro de costes como una optimización de los mismos”. Además, esta práctica involucra en los datos de los desarrollos en la nube a todos los departamentos de la empresa. “Todas las áreas tienen sus presupuestos, pero con FinOps, desde Negocio también tienen un control y una responsabilidad del gasto que hacen en tecnología”. El reto principal, para Juan Carlos Ferrer, IS Cloud and Infraestructure Executive Director de NTT Data -al margen de la tecnología-, “se basa en “estrategia, gobierno y gestión. Así, la cloud también ha cambiado el modelo de monitorización de uno más reactivo a otro más predictivo y proactivo”. Y para evitar las famosas repatriaciones de cargas de la nube a local, no hay que olvidar tener en cuenta la sostenibilidad de la inversión. “Todo lo que compramos hay que mantenerlo en el tiempo”.
Por otro lado, la gestión de los recursos en un modelo multicloud pasa a ser de muchos proveedores, por lo que la responsabilidad, ya sea de la gestión de costes, de la seguridad de los datos, etc., es siempre compartida. Es una cuestión cultural. En AWS tienen “143 certificaciones de compliance y seguridad por las que garantizan que el dato es propiedad del cliente, y AWS se encarga de la infraestructura en un modelo de responsabilidad compartida”.
No obstante, si en un modelo multicloud podemos desconfiar del temido vendor locking de los proveedores de cloud, en un modelo híbrido u on premise las compañías pueden caer en el ‘self-locking’, por el que dependan 100% de su equipo de empleados y sus desarrollos propios. Por su parte, la apificación ha permitido a muchas compañías ser agnósticas de la nube y trabajar ‘out of the box’ sorteando el vendor locking, pero el peligro de una excesiva customización de las aplicaciones les ha conducido también al ‘self-locking’. Además, de que “los profesionales no quieren trabajar en soluciones específicas para una empresa determinada en su nube privada, quieren trabajar en soluciones con mayor apertura de mercado”.
A vueltas con el talento y la gestión del cambio
Un aspecto positivo de la nube es que obliga a las empresas a tener las aplicaciones actualizadas “-y se pueden realizar actualizaciones en caliente con altos niveles de redundancia”-, pero para gestionar este ecosistema en incesante cambio, con continuas innovaciones y nuevas versiones de sistemas, se necesita talento cualificado y en constante formación. Alonso Batuecas lamentó que “encontrar talento especializado es cada vez más difícil, sobre todo en el caso de partners pequeños. Que estén certificados en una tecnología no significa que sepan manejarla al más alto nivel, la certificación es lo mínimo que se pide”. De hecho, añadió que “no existen expertos en tecnologías tan novedosas como la IA generativa, todos están aprendiendo a la vez que nosotros”.
La crisis del talento está muy unida a la gestión del cambio cultural y la mentalidad en las empresas. “Para atraer talento digital las empresas tienen que contar con una cultura digital. Y este cambio de paradigma no se basa únicamente en implementar cambios y olvidarse, exige un acompañamiento”. Sobre todo, porque gran parte de este cambio no viene dado desde el área TI. “Si las empresas quieren avanzar en cultura digital y nuevas tecnologías, son los responsables de áreas como Recursos Humanos o Negocio los que tienen que dar un paso al frente para demandar lo que necesitan para que se produzca este avance, tanto para el usuario interno como para el cliente final de la empresa, “aunque los responsables de TI son cada vez más asesores de Negocio”. Lo que está claro es que cualquier cambio con vistas al futuro de las compañías va ligado, irremediablemente, a la nube y que, a pesar de los contras y de las reticencias iniciales, facilita una transformación tecnológica y humana por la que a las compañías les merece la pena arriesgarse.
Asistentes
Federico Esteban, BBVA | Narciso Cerezo, BBVA | Víctor Blanco, Cepsa | Eva Ortiz, INE | Pablo Ruiz-Hidalgo, Ingram Micro | Francisco Alonso Batuecas, Ministerio de Interior | Carlos Valero, NTT Data | Luis Felipe Coco, Telefónica España.
Rafael Pacheco, Senior Partner Solutions Architect de AWS
“Facilitamos la integración de los entornos híbridos de cada cliente”
En Amazon Web Services (AWS), tenemos una cultura profundamente arraigada en la satisfacción del cliente, priorizando una colaboración estrecha para comprender a fondo sus necesidades. Para respaldar este compromiso, hemos desarrollado herramientas avanzadas que facilitan la integración en entornos híbridos, proporcionando una experiencia de usuario más eficiente y fluida.
Hablamos de soluciones open source que se adecúan a las demandas de cada cliente, por ejemplo, si tienen que trabajar con infraestructuras on premise o desde un entorno multicloud; y permiten centralizar y simplificar la gestión de estos entornos híbridos poniendo al cliente siempre en el centro. Esta flexibilidad permite a nuestros usuarios beneficiarse de la potencia de AWS independientemente de su entorno de implementación.
Juan Carlos Ferrer, IS Cloud & Infrastructure Executive Director de NTT Data
“FinOps es eficiencia operativa, control de costes y predictibilidad”
Los entornos híbridos y multicloud han influido mucho en el mundo de las operaciones empresariales. Anteriormente, estas operaciones se realizaban en una infraestructura fija y predecible, pero, con el uso de la nube, las empresas pasan a tener una serie de recursos cambiantes según la demanda del negocio. Por este motivo, alcanzar la eficiencia operativa, mediante la estandarización de la gestión de todas las infraestructuras que están en el entorno de la nube, es fundamental.
FinOps es una práctica que nace con la cloud y se enfoca en dos factores: mantener el control de todos los recursos utilizados en la nube, para que no se disparen los costes; y alcanzar un alto grado de predictibilidad sobre cómo va a evolucionar el negocio, para saber cuánta nube se debe contratar a los proveedores. Ambos factores son muy importantes para una adecuada gestión del entorno TI.