ChatGPT, objeto de deseo del cibercrimen

Los hilos sobre ChatGPT aumentaron un 145% (de 37 a 91 en un mes), ya que la explotación del bot se convirtió en el tema más candente de la Dark Web

Publicado el 20 Abr 2023

61705_60

La carrera por utilizar ChatGPT para la ciberdelincuencia ha multiplicado por siete el número de hackers que hablan de cómo manipular el chatbot en internet, según revela un estudio de la empresa de ciberseguridad NordVPN. El número de nuevos mensajes en foros de la Dark Web sobre la herramienta de inteligencia artificial pasó de 120 en enero a 870 en febrero, lo que supone un aumento del 625%. Los hilos sobre ChatGPT aumentaron un 145% (de 37 a 91 en un mes), ya que la explotación del bot se convirtió en el tema más candente de la Dark Web.

A principios de enero, muchos hilos se centraban en cómo los malos actores podían animar a ChatGPT a producir malware básico, una vulnerabilidad que su creador OpenAI ha solucionado desde entonces. Un mes después, la tendencia entre la comunidad de hackers es actuar de forma más agresiva, con mensajes que esbozan planes para hacerse con el control del chatbot y utilizarlo para sembrar el caos.

Los títulos del foro de la Dark Web (oculto a los motores de búsqueda normales y visitado por hackers anónimos de todo el mundo) incluyen Cómo romper ChatGPT, ChatGPT jailbreak 2.0, ChatGPT: progresión del malware y ChatGPT como herramienta de phishing. Con ChatGPT a sus espaldas, los delincuentes podrían aprovechar su inteligencia artificial para cometer fraudes (como estafas románticas) a escala industrial, dirigiéndose a múltiples víctimas simultáneamente.

Una vez que un hacker se ha hecho con el control del chatbot, puede eliminar sus restricciones de seguridad y utilizarlo para crear malware y correos electrónicos de phishing, promover discursos de odio o incluso difundir propaganda. En palabras de Marijus Briedis, experto en ciberseguridad de NordVPN: “Los chatbots como ChatGPT pueden facilitarnos la vida de muchas maneras, como realizar tareas escritas mundanas, resumir temas complejos o sugerir un itinerario de vacaciones. Para los ciberdelincuentes, sin embargo, la revolucionaria IA puede ser la pieza que falta en el rompecabezas para una serie de estafas”.

Y añade:”La ingeniería social, en la que se anima a un objetivo a hacer clic en un archivo falso o descargar un programa malicioso a través de correos electrónicos, mensajes de texto o chats online, consume mucho tiempo a los hackers. Sin embargo, una vez que se ha explotado un bot, estas tareas pueden externalizarse por completo, estableciendo una línea de producción de fraudes”.

El uso del aprendizaje automático por parte de ChatGPT también significa que los intentos de estafa, como los correos electrónicos de phishing, a menudo identificables por errores ortográficos, pueden mejorarse para ser más realistas y persuasivos. “Preocupantemente, en el último mes las discusiones en la web oscura han evolucionado de simples trucos y soluciones -diseñadas para animar a ChatGPT a hacer algo divertido o inesperado- a tomar el control completo de la herramienta y convertirla en un arma”, alerta Briedis.

ChatGPT es la aplicación de más rápido crecimiento en el mundo y alcanzó los 100 millones de usuarios en dos meses. Su tecnología de IA está siendo probada por Microsoft con el objetivo de mejorar su motor de búsqueda Bing.

¿Qué te ha parecido este artículo?

La tua opinione è importante per noi!

C
Redacción Computing

Artículos relacionados

Artículo 1 de 3