Ataques de Deepfake Afectan a Casi Dos Tercios de las Organizaciones

Una encuesta reciente de Gartner revela que casi el 62% de las organizaciones han sido víctimas de un ataque de deepfake en los últimos 12 meses. Estos ataques incluyen desde tácticas de ingeniería social—donde los atacantes se hacen pasar por personas durante videollamadas o llamadas de audio—hasta la explotación de sistemas de verificación automatizados, como biometría facial o de voz.

Según Akif Khan, Director Senior de Gartner Research, la mejora continua en las tecnologías de deepfake indica que este tipo de amenazas seguirá creciendo en complejidad y frecuencia.

La necesidad de detección de deepfakes integrada

Actualmente, el método más común combina deepfakes con ingeniería social, por ejemplo, haciéndose pasar por un ejecutivo para convencer a empleados de transferir dinero a cuentas fraudulentas. Khan destaca que esto es particularmente complicado, ya que los empleados se convierten en la primera línea de defensa ante estos ataques; las soluciones automatizadas por sí solas no suelen ser suficientes.

Para protegerse, se recomienda que las organizaciones exploren soluciones emergentes que integren detección de deepfakes directamente en plataformas de comunicación como Microsoft Teams o Zoom. Aunque aún hay pocos despliegues a gran escala, estas herramientas podrían convertirse en un elemento clave en las estrategias de ciberseguridad empresarial.

Conciencia y controles de proceso

En el corto plazo, muchas empresas están implementando programas de capacitación específicos sobre deepfakes, simulando situaciones donde se usan deepfakes de ejecutivos para entrenar al personal a identificar actividades sospechosas.

Además, es fundamental revisar los procesos internos, especialmente en aprobaciones financieras. Por ejemplo, si un CFO solicita una transferencia, esta debería autorizarse mediante la aplicación financiera segura con autenticación multifactor resistente al phishing (MFA), garantizando que la transacción sea legítima.

Ataques dirigidos a aplicaciones de IA

El informe de Gartner también indica que el 32% de las organizaciones han enfrentado ataques contra aplicaciones de inteligencia artificial, especialmente mediante inyección de prompts, técnica que manipula modelos de lenguaje para generar resultados sesgados o maliciosos.

Si bien dos tercios de los encuestados no reportaron ataques relacionados con IA, aproximadamente el 5% experimentó incidentes graves, lo que subraya que la seguridad en IA sigue siendo una preocupación creciente. Khan recomienda a las organizaciones gestionar cuidadosamente el uso de IA no oficial (shadow AI) y controlar el acceso a herramientas de IA aprobadas o desarrolladas internamente.

Conclusión

A medida que los ataques basados en deepfake e inteligencia artificial se vuelven más sofisticados, las organizaciones deben combinar tecnología, capacitación del personal y controles de procesos para mitigar riesgos. Los hallazgos de Gartner destacan la importancia de estrategias proactivas para proteger tanto los activos digitales humanos como no humanos en un panorama de amenazas cada vez más automatizado.

Detalles de la encuesta: Gartner encuestó a 302 líderes en ciberseguridad en América del Norte, EMEA y Asia-Pacífico.

Fuente: https://www.infosecurity-magazine.com/news/deepfake-attacks-hit-twothirds-of