ciberamenazas

Ataques de phishing impulsado por IA generativa aumentan un 1.265% desde el lanzamiento de ChatGPT



Dirección copiada

Desde la irrupción de ChatGPT, los ataques de phishing impulsados por IA generativa han registrado un crecimiento explosivo, con la ayuda de modelos maliciosos como Fraud GPT y PentestGPT.

Publicado el 30 oct 2024



ChatGPT

Así como muchas empresas y organizaciones gubernamentales, los ciberdelincuentes están aprovechando el potencial de la IA generativa para perpetrar sus agresiones. Según datos de Accenture, los ataques de ransomware han aumentado un 76% desde que, a fines de 2022, se lanzó ChatGPT.

Con frecuencia estos ataques se inician mediante phishing impulsado por IA generativa, lo que ha generado un asombroso crecimiento de 1.265% en los ataques de phishing desde el lanzamiento de ChatGPT. Estos ciberataques se apoyan en modelos de lenguaje grandes (LLMs) maliciosos, como Fraud GPT y PentestGPT, que se pueden adquirir en la dark web por tan solo US$ 200 mensuales.

Es así como, por ejemplo, un ciberdelincuente puede hacerse pasar por el jefe de un usuario, y autorizar transferencias de dinero mediante una llamada telefónica, pues, junto con crear textos engañosos, estos modelos facilitan la elaboración de deepfakes, imitaciones digitales tan convincentes que cualquiera podría ser engañado.

Al respecto, un caso impactante fue el del Hong Kong Bank, que perdió US$ 25 millones tras una estafa basada en ChatGPT, en la que los delincuentes recrearon digitalmente a un director de tecnología y otros empleados, y a través de una llamada telefónica dieron instrucciones para realizar transferencias monetarias.

Junto con demostrar la creciente sofisticación de los cibercriminales, estos ataques también subrayan la necesidad urgente de que las empresas robustezcan sus medidas de seguridad para hacer frente a estas nuevas ciberamenazas. Desde Accenture Cyber Intelligence explican que sectores como los servicios financieros, gobierno y energía son especialmente vulnerables, por lo que ya están desarrollando defensas personalizadas contra ataques de IA generativa.

“A medida que las organizaciones pasen de pilotos y casos de uso específicos a implementaciones de IA generativa a mayor escala, los riesgos de ciberseguridad aumentarán. Esto se debe a que existirán más usuarios y más datos en los sistemas”, explica Carolina Pizarro, Directora Asociada de Ciberseguridad de Accenture Chile.

Sin embargo, cabe recalcar que así como crea nuevas debilidades, la IA generativa es también una eficiente herramienta en materia de ciberseguridad. “Para manejar estas vulnerabilidades se requieren nuevas capacidades, como el descubrimiento de IA en la sombra, el filtrado de indicaciones y pruebas de integración de IA para mitigar estos riesgos. La clave para ganar ventaja será poner la seguridad en el centro del diseño de la adopción de la IA generativa”, concluye Pizarro.

Artículos relacionados

Artículo 1 de 4