Fog computing ha sido un término bastante extendido que ha perdido fuelle en los últimos tiempos en favor de su sinónimo edge computing (computación en el extremo), y viene a representar el fundamento técnológico de Internet de las Cosas (IoT).
Índice de temas
Principales ventajas del fog computing
Fog computing es un modelo de computación distribuida cuyo objetivo es acercar el procesamiento de datos y la capacidad de almacenamiento allá donde se encuentran los dispositivos y los usuarios finales.
Al diferir de un enfoque centralizado propio de la nube, con el fog computing se reduce la latencia en la transferencia de la información. Un aspecto muy valorado en aplicaciones que requieren respuestas en tiempo real (coche conectado, 5G, por ejemplo).
La capacidad de respuesta de los dispositivos locales es consecuentemente mayor, ya que los datos no tienen que viajar a la nube de forma inmediata, algo muy beneficioso cuando la conexión a Internet no es muy sólida. Y es que los sistemas pueden seguir funcionado incluso cuando se interrumpe la conexión, lo que les da autonomía para llevar a cabo tareas críticas por su cuenta.
La necesidad de transferir ingentes volúmenes de información se ve reducida, evitando cuellos de botella, algo que incide positivamente en el ancho de banda requerido, en términos de costes y de infraestructura de red.
Los expertos también señalan un mayor grado de privacidad y seguridad proporcionado por el fog computing dado que los datos críticos se sitúan más cerca de los usuarios y no resulta necesario transmitirlos por la red.
La escalabilidad gana enteros con este planteamiento de tal manera que el fog computing permite repartir la carga del procesamiento de datos entre los distintos dispositivos mejorando la eficiencia del sistema, especialmente en entornos donde confluyen un gran parque de puntos de conexión IoT, verbigracia, las smart cities.
Características clave del fog computing
Como concepto básico, el edge computing consiste en un modelo de computación distribuida que no depende de una nube centralizada, con lo cual su característica clave es su posicionamiento en el extremo de la red. Los nodos se despliegan en diversas ubicaciones a través de routers, switches y beacons, gateways, que son los encargados de procesar los datos en el lugar donde se generan y se consumen.
No requieren una conexión constante a la nube porque tienen la particularidad de procesamiento independiente. Los nodos colaboran y se comunican entre sí en un modelo distribuido que mejora significativamente la eficiencia y el rendimiento de las aplicaciones. Compartiendo información entre ellos pueden tomar decisiones de forma autónoma y ágil sin tener que pedir la autorización del ‘cerebro central’.
Herramientas e implementaciones de edge computing
Hay un rico ecosistema de herramientas de edge computing de signo diferente. Entre las plataformas de código abierto brilla con luz propia Apache Edgent, que se caracteriza por una infraestructura ligera y flexible para el recabado, análisis y retransmisión de información en tiempo real.
Dentro del segmento de grandes proveedores, es obligado citar Microsoft Azure IoT Edge, que permite implementar servicios de Azure en dispositivos de Internet of Things, aplicando reglas y realizando acciones de los dispositivos a nivel local. El entorno de ejecución de IoT Edge es de código abierto y gratuito.
Amazon Web Services no le va a la zaga a su director competidor con su herramienta AWS Greengrass, que hace que sea fácil incorporar inteligencia a los nodos del fog computing, por ejemplo para detección de anomalías en agricultura de precisión o para desplegar dispositivos autónomos.
También tiene gran renombre Cisco IOx que permite ejecutar aplicaciones en enrutadores y switches que aceleran el tiempo de respuestas de estos artefactos con el fin de generar valor para el negocio digital.
Google Distributed Cloud Edge, lanzada en octubre de 2021, contempla soporte de aplicaciones en el borde, información analítica, habilitación de IoT y migración simple de nube al extremo.
Tampoco hay que perder de vista a otras plataformas estadounidenses como ClearBlade, Private Edge de Alef, Eclipse ioFog, respaldada por IBM, HPEEdgeline, Mutable Public Edge Cloud y Vapor IO Kinetic Grid. Mención especial para la única empresa europea que compite en estas lides, la italiana Eurotech con su plataforma Everyware Software Framework (ESF), destinada a los programadores de software.
Ejemplos de fog computing
El edge computing es campo de cultivo en sectores que requieren recopilación ingente de datos, transmisión de información con alta velocidad, análisis predictivo con carácter de inmediatez y decisiones en tiempo real.
Las smart cities o ciudades inteligentes son el ejemplo canónico del fog computing. El análisis de datos (sensores meteorológicos, semáforos, iluminación, cámaras de vigilancia…) constituye su principal potencial para poder tomar decisiones en tiempo real ante problemas que pueden afectar a servicios al ciudadano como el suministro eléctrico, la gestión de la energía, la seguridad pública o la correcta operativa del transporte público.
La llamada Industria 4.0 se ha visto impulsada por la conjunción del mayor uso de Internet de las Cosas industriales, el aumento de dispositivos inteligentes y de unidades periféricas con gran capacidad de proceso. También se utiliza para monitorizar y controlar las máquinas y los procesos de fabricación, con sistemas de prevención de averías y soporte robotizado. También se utilizan para optimizar la producción y mejorar la eficiencia operativa.
Amazon Web Services no le va a la zaga a su director competidor con su herramienta AWS Greengrass
Salud y telemedicina (monitoreo de pacientes), transporte, coche conectado… son otros sectores donde la implantación de sensores inteligentes abre horizontes de innovación de gran valor para el bienestar y seguridad de las personas. En retail, un caso paradigmático es Amazon Go, la tienda desasistida de Amazon plagada de sensores inteligentes que se encargan de detectar personas, objetos, modos de pago, actividades, etc. y que mediante machine learning e IA pueden gestionar todo ese tráfago de información que se genera en todos esos nodos, así como integrar todos los datos con sistemas centrales de ERP, CRM y analytics.
Construcción de una arquitectura de fog computing
La construcción de una arquitectura de fog computing contempla varios elementos, si bien puede variar según los requisitos y el entorno específico de implementación
Dispositivos y sensores: La arquitectura de fog computing se basa en la presencia de equipos que pueden ser sensores IoT, dispositivos móviles, cámaras de seguridad, sistemas de control industrial u otros dispositivos conectados.
Nodos: Los nodos de fog computing son los puntos de procesamiento y almacenamiento ubicados en el extremo de la red. Estos nodos pueden ser servidores, gateways, routers o incluso dispositivos IoT con capacidades de computación local. Los nodos de fog computing realizan el procesamiento de datos y proporcionan servicios en el borde de la red.
Comunicación y conectividad: La arquitectura requiere una infraestructura de comunicación confiable para permitir la conectividad entre los dispositivos, los nodos de fog computing y otros sistemas. Esto puede incluir redes cableadas, redes inalámbricas (como wifi, Bluetooth o Zigbee) y tecnologías de comunicación de baja energía (como LoRaWAN o NB-IoT).
Almacenamiento y gestión de datos: Los nodos de pueden requerir capacidades de almacenamiento local para almacenar datos procesados, modelos de aprendizaje automático o cualquier otra información relevante. El almacenamiento puede variar desde unidades de disco local hasta sistemas de almacenamiento en red (NAS) o almacenamiento en la nube distribuida.
Procesamiento de datos y análisis: En una arquitectura de fog computing, se lleva a cabo el procesamiento y análisis de datos en el borde de la red. Esto puede incluir el filtrado de datos, la agregación, la inferencia de modelos de aprendizaje automático, la detección de anomalías u otras tareas de análisis que permitan tomar decisiones en tiempo real y reducir la carga en los recursos de la nube centralizada.
Interacción con la nube centralizada: Aunque el procesamiento de datos ocurre principalmente en el borde de la red, es posible que la arquitectura de fog computing interactúe con la nube centralizada para ciertas tareas, como el almacenamiento a largo plazo, el análisis a gran escala o la coordinación con otros sistemas.
Seguridad y privacidad: Dado que la arquitectura de fog computing implica el procesamiento y almacenamiento de datos en dispositivos distribuidos, es fundamental implementar medidas sólidas de seguridad y privacidad. Esto incluye la autenticación y autorización de dispositivos, el cifrado de datos, la detección de intrusiones y la protección contra ataques cibernéticos. Las actualizaciones y los parches de seguridad tienen que estar al orden del día; esto incluye firmware, sistemas operativos y cualquier software utilizado en los nodos del fog computing.
Requerimientos para la implementación del fog computing
Es obvio decir que los requerimientos para la implementación de un modelo de fog computing debe contar con una infraestructura de red robusta, dispositivos, nodos y sensores compatibles con la arquitectura y tener un diseño escalable y flexible, además de ser imprescindibles herramientas de monitoreo y gestión para supervisar el rendimiento de los nodos, detectar problemas y realizar los ajustes cuando sean requeridos.
Integración entre fog computing y IA
El ascenso irresistible de la inteligencia artificial inunda todos los ámbitos. En el caso del fog compuiting la IA llega para aportar beneficios notables ya que permite combinar el procesamiento en el extremo de la red con la analítica avanzada de datos. Equipos que puedan gestionar la IA en el edge requerirán un alto poder para realizar tareas de aprendizaje automático y procesamiento de lenguaje natural. Un sistema más autónomo y capaz que al reducir la latencia permite la toma de decisiones en tiempo real sin depender de la nube central.
Modelos de IA entrenados pueden deplegarse en el edge computing, una función muy útil en aplicaciones donde la conectividad con la nube resulta inestable. Asimismo, el fog computing puede realizar filtrado y preprocesamiento de datos en el borde de la red antes de enviarlos a sistemas de IA centralizados. La privacidad y seguridad de los datos sensibles mejoran, ya que, en vez de enviar los datos críticos a la nube para su procesamiento, el sistema los analiza localmente y envía solo la información relevante, cumpliendo así con las regulaciones más estrictas.
El aprendizaje federado es otro beneficio de aplicar la IA al fog computing. Consiste en una técnica por la cual los modelos de IA se entrenan en múltiples dispositivos sin compartir los datos brutos, lo que ayuda a preservar la privacidad de los datos sensibles.
Relación entre el fog computing con el cloud computing
Pudiera decirse que fog computing y cloud computing son dos términos de distinta naturaleza, difieren en la ubicación y distribución de los recursos, pero complementarios al mismo tiempo, pues se utilizan para procesar y almacenar datos.
En el cloud los datos y las aplicaciones se alojan en servidores remotos y centros de datos, y los usuarios consumen estos recursos desde sus equipos, mientras que el fog computing acerca el procesamiento de la información y la inteligencia computacional a los dispositivos y sensores que generan los datos sin tener que enviarlos a la nube. Y como ha quedado dicho, disminuye la latencia, alivia la carga y permite que los propios dispositivos tomen decisiones en tiempo real. Por su parte la nube queda relegada para el almacenamiento a largo plazo, análisis a gran escala y disponibilidad de servicios con carácter global.