informes

Sólo un tercio de los expertos de seguridad en España usa la IA para detectar amenazas



Dirección copiada

El 99% de ellos considera el malware impulsado por IA su principal preocupación

Publicado el 4 ene 2024



Detectar amenazas

El continuo auge de la IA se ha convertido en un arma de doble filo, por lo que los profesionales de la ciberseguridad se están preparando para la afluencia de nuevas amenazas cibernéticas habilitadas por inteligencia artificial, a pesar de que esta tecnología también se utilice para detectar las amenazas. Según el informe sobre el panorama de amenazas a la seguridad de la identidad de 2023 de CyberArk, cerca del 33% de los equipos de ciberseguridad en España están haciendo uso de la inteligencia artificial para la detección y prevención de infracciones.

Asimismo, la IA generativa (GenAI) ya se está utilizando para identificar más rápidamente anomalías de comportamiento y mejorar la resiliencia cibernética. Y si bien el talento humano sigue siendo fundamental para luchar contra las amenazas emergentes, la IA también puede ayudar a cerrar algunas de las brechas causadas por la escasez de 3,4 millones de trabajadores de ciberseguridad, según las estimaciones del último Estudio de la Fuerza Laboral de Ciberseguridad de ISC.

Pero las herramientas de GenAI, cada vez más populares, están abriendo una nueva caja de pandora de vulnerabilidades de seguridad, lo que preocupa a los profesionales. La investigación de CyberArk indica que el 53% de esos profesionales en España considera que los empleados están utilizando herramientas avanzadas con IA, pero no habilitadas, para ayudarles en su trabajo diario, lo cual causa un mayor riesgo. Y que estas ciberamenazas habilitadas por IA afectarán al 99% de las organizaciones españolas en 2023.

Por otro lado, la seguridad de los chatbots también es una preocupación importante. Así, para el 63% de los encuestados de nuestro país la principal preocupación es que las tecnologías generativas brindarán a los ciberatacantes los medios para explotar vulnerabilidades e inyectar malware, hacerse pasar por empleados a través de deepfakes y realizar campañas de phishing. 

De hecho, los ciberdelincuentes ya están utilizando GenAI para crear textos de correo electrónico que parecen reales para campañas de phishing o incluso generar malware que elude la autenticación de reconocimiento facial o evade la detección. Tales técnicas fueron descubiertas en una investigación de CyberArk a principios de este año, que señaló que los atacantes podrían usar ChatGPT para generar código malicioso y crear malware polimórfico, altamente evasivo para la mayoría de los productos antimalware.

Artículos relacionados

Artículo 1 de 2