No cabe duda de que la inteligencia artificial es parte del futuro y este 2023 está siendo sin duda el “el año de la IA”, marcado por uno de los periodos de máxima expansión y controversia.
Esta tecnología ya ha demostrado su potencial para revolucionar diversas áreas como la salud, las finanzas, el transporte o la ciberseguridad. Puede automatizar tareas tediosas, aumentar la eficiencia y proporcionar información, pero también es capaz de ayudarnos a resolver problemas complejos, tomar mejores decisiones o reducir el error humano. Pero por desgracia, al mismo tiempo estamos viendo ya un uso muy extendido de esta tecnología enfocado al desarrollo de nuevas y más complejas ciberamenazas.
Este uso indebido de la IA ha sido reportado numerosamente en los medios de comunicación, contando con una amplia selección de informes sobre cómo los ciberdelincuentes se aprovechan de ChatGPT para contribuir a la creación de malware.
A menudo escuchamos preocupaciones sobre si la IA se acercará o incluso superará las capacidades humanas. Aunque predecir cuán avanzada llegará a ser es difícil, actualmente ya existen varias categorizaciones: la inteligencia artificial actual, conocida como IA “estrecha“ o débil (ANI); la IA general (AGI) ascendería hasta un nivel de funcionamiento equivalente al del cerebro humano, pensando, aprendiendo y resolviendo tareas de manera autónoma; mientras que la súper inteligencia artificial (ASI) englobaría a aquellas máquinas capaces de superar la inteligencia humana.
Limitados por el momento al primer nivel, una de las preocupaciones más recurrentes es si la inteligencia artificial alcanzará el nivel AGI, con el consecuente riesgo de que actúe por sí sola y llegar a convertirse en una amenaza potencial para la humanidad. Por ello, debemos trabajar para alinear los objetivos y valores de la IA con los de los humanos y mitigar los riesgos asociados con su versión más avanzada. Es importante que los gobiernos, las empresas y los reguladores trabajen juntos para desarrollar mecanismos de seguridad sólidos, legislar, establecer principios éticos y promover la transparencia y la rendición de cuentas en el desarrollo de la IA.
Y es que actualmente sólo hay un compendio mínimo de reglas y regulaciones y una propuesta sin aprobar de Ley de IA. Dependiendo del tipo de IA, las empresas que desarrollan y lanzan sistemas basados en inteligencia artificial deben garantizar al menos unos estándares mínimos de privacidad, equidad, explicabilidad y accesibilidad. Se han debatido varias prohibiciones y restricciones para ChatGPT, un caso en el que las preocupaciones se centran en la privacidad, tras detectarse filtraciones de datos, así como el hecho de que no exista ninguna limitación de edad para el acceso de los usuarios.
Ya hemos sido testigos de cómo los ciberdelincuentes utilizan la IA para tareas de refinamiento de sus ataques, identificar automáticamente vulnerabilidades, crear campañas de phishing dirigidas, diseñar socialmente o incluso crear malware avanzado que puede cambiar su código para evadir mejor los sistemas de detección.
Esta tecnología también se puede utilizar para generar deepfakes de audio y video convincentes que pueden usarse para fines relacionados con la manipulación política, pruebas falsas en juicios penales o para engañar a los usuarios para que paguen dinero.
Aunque las aplicaciones de la IA en el ámbito de la ciberseguridad no son exclusivamente negativas, también es una ayuda importante para defenderse contra los ciberataques. Por ejemplo, de las más de 70 herramientas que utilizamos actualmente en Check Point Software para analizar amenazas y proteger contra los ataques, más de 40 están basadas en IA. Ayuda con el análisis del comportamiento, analiza grandes cantidades de datos de amenazas de varias fuentes, incluida la Dark Web, lo que facilita la detección de vulnerabilidades zero-day o la automatización de parches de vulnerabilidades de seguridad.
El mayor problema al que nos enfrentamos es al uso despreocupado de esta herramienta. La mayoría de los usuarios no es consciente de que la información confidencial ingresada en ChatGPT, ya sea a nivel de empresa o personal, puede resultar muy valiosa si se filtra, y podría usarse para fines de marketing dirigido.
Ahora más que nunca debemos ser conscientes de que el futuro impacto de la IA en nuestra sociedad dependerá de cómo elijamos desarrollar y utilizar esta tecnología hoy. Debemos sopesar los beneficios y riesgos potenciales mientras nos esforzamos por garantizar que la inteligencia artificial se desarrolla de manera responsable, ética y beneficiosa para la sociedad.