El uso generalizado de ChatGPT está abriendo nuevos debates sobre las ventajas de su uso y los riesgos que puede conllevar. Esta nueva herramienta que viene para cambiar nuestra forma de trabajar…¿supone un riesgo para la ciberseguridad o, por el contrario, se trata de una ayuda para mejorar los entornos de seguridad de las empresas?
ChatGPT, nuevas oportunidades, nuevos desafíos
Esta tecnología de inteligencia artificial generativa se ha popularizado desde que la lanzara en noviembre del año pasado por OpenAI. Pero a pesar de todas las bondades que ofrece, también conlleva nuevos riesgos en materia de ciberseguridad.
El mayor problema radica en la privacidad de los datos, ya que cuando se utiliza para generar texto, es posible que esta herramienta procese y almacene información personal y confidencial. Empresas de la talla de Amazon o Google ya han advertido a sus empleados del peligro de introducir datos personales o confidenciales en este tipo de herramientas, ya que esa información puede ser procesada y utilizada por usuarios terceros.
Por otro lado, podemos hablar de los fraudes y estafas, como el phishing, como segundo gran problema de este tipo de herramientas. ChatGPT puede utilizarse para generar mensajes falsos con el objetivo de persuadir a los usuarios para que revelen información confidencial o hagan clic en enlaces maliciosos con el objetivo de robar credenciales o infectar sistemas con malware.
La desinformación también puede considerarse un gran problema de este tipo de herramientas, ya que a través de noticias falsas pueden llegar a influir en la opinión pública. Por otro lado, la suplantación de identidad o los ataques de ingeniería social también están a la orden del día ya que los modelos de lenguaje pueden ser utilizados por los atacantes para imitar la forma de hablar de un usuario específico para a incitar a otros usuarios a realizar acciones maliciosas o para obtener información confidencial.