El 30 de noviembre de 2022 marcó un hito para la inteligencia artificial (IA), con el lanzamiento de ChatGPT. Este evento no solo generalizó el acceso a la IA, sino que abrió las puertas a nuevas oportunidades de negocio al permitir que cualquier persona interactuara con modelos como GPT-4o o Claude. En solo dos años, estas herramientas han revolucionado sectores de todos los tamaños, desde el servicio al cliente hasta la toma de decisiones estratégicas.
Hoy en día, todo el mundo conoce, en mayor o menor medida, de lo que son capaces estos modelos y, aunque muchos ven a ChatGPT como la primera incursión de la IA en nuestra sociedad, la realidad es que la IA ha estado presente por décadas. Desde las recomendaciones personalizadas en plataformas como Netflix o Amazon, hasta soluciones industriales avanzadas como el mantenimiento predictivo, la IA ya estaba transformando nuestro día a día. Sin embargo, la llegada de la IA generativa ha redefinido las expectativas y multiplicado los casos de uso. Lo que está claro es que la IA no es una moda pasajera; su impacto en la economía y la sociedad parece innegable. Ya sea que estemos avanzando hacia la “meseta” de la IA anunciada por Yann LeCun, Chief AI Scientist en Meta, o que lleguemos al hito de la Inteligencia Artificial General (AGI) para 2025, la misión de las empresas será clara: integrar, mantener y sobre todo proteger estos sistemas.
La expansión de la IA en sectores críticos como la industria, la agricultura y la energía implica que ahora es una pieza clave de la infraestructura global. Esto, a su vez, la convierte en un objetivo atractivo para los ciberdelincuentes, que buscan explotar la valiosa información que estos sistemas manejan. La protección de estos sistemas no es solo un desafío técnico, sino una prioridad estratégica que afecta directamente la operativa, la confianza del cliente y el cumplimiento regulatorio.
Normativas entorno a la IA
La UE ha sido pionera en abordar estos riesgos con la introducción de regulaciones como la AI Act y la directiva NIS2. La AI Act clasifica los sistemas IA según su nivel de riesgo: inaceptable, alto, limitado y mínimo. Para los sistemas de alto riesgo, la normativa exige que sean diseñados y desarrollados de manera que se garantice un alto nivel de robustez y seguridad durante todo su ciclo de vida. Además, la directiva NIS2 amplía el alcance de la ciberseguridad al incluir a organizaciones clave como empresas tecnológicas y operadores de infraestructura crítica. Para las empresas, esto implica implementar políticas de gestión de riesgos más rigurosas, especialmente para garantizar la resiliencia ante ciberataques.
En este contexto, la protección de los sistemas IA es una obligación técnica, legal y un pilar clave para garantizar la confianza y competitividad. Los líderes empresariales deben integrar la seguridad en todo el ciclo de vida de la IA, desde el diseño hasta su implementación y mantenimiento. La adopción de la tecnología históricamente siempre ha acarreado beneficios y riesgos, y la irrupción de la IA no es la excepción. Esta revolución tecnológica trae consigo tanto grandes oportunidades como desafíos significativos. Es nuestra responsabilidad, como sociedad, asegurar que aprovechamos al máximo los beneficios de la IA, mientras minimizamos y gestionamos adecuadamente sus riesgos.
En LKS Next, somos conscientes de la necesidad de integrar la seguridad desde las etapas iniciales del desarrollo. Por ello, hemos adoptado un marco de desarrollo seguro basado DevSecOps y MLSecOps, que garantiza la protección de los sistemas durante todo su ciclo de vida. Con este enfoque, aseguramos que la seguridad no sea solo un complemento, sino un pilar fundamental en cada solución de IA que implantamos.