Ciberdelincuentes utilizan Claude AI para ejecutar ataques masivos de extorsión

Anthropic, la empresa detrás del reconocido chatbot de programación Claude, reveló una operación de ciberextorsión a gran escala en la que delincuentes aprovecharon la inteligencia artificial para automatizar y coordinar ataques complejos.

En su informe de Threat Intelligence, Anthropic detalló varios casos de abuso de su herramienta. Según la compañía:

“Los actores de amenazas están utilizando agentes de IA para ejecutar operaciones activas en redes de víctimas, en lo que se conoce como vibe hacking.”

Este concepto hace referencia al uso de la programación asistida por IA, donde basta con describir en lenguaje natural lo que debe hacer una aplicación, y la IA genera el código. Aunque esto facilita la innovación tecnológica, también reduce las barreras técnicas para los cibercriminales, permitiéndoles lanzar ataques de forma más rápida y a mayor escala.

Ataques contra múltiples sectores

Anthropic identificó un caso especialmente grave: una operación que afectó al menos a 17 organizaciones en un solo mes, incluyendo entidades gubernamentales, hospitales, servicios de emergencia e instituciones religiosas.

Los atacantes combinaron herramientas de inteligencia de fuentes abiertas (OSINT) con una integración sin precedentes de IA en todo el ciclo del ataque. Como resultado, lograron comprometer registros médicos, datos financieros, credenciales gubernamentales y otra información sensible.

El objetivo principal era la extorsión: los sistemas comprometidos recibieron notas de rescate exigiendo pagos de entre 75,000 y 500,000 dólares en Bitcoin. En caso de no pagar, los atacantes amenazaban con publicar o vender la información robada en mercados criminales.

Diversificación de campañas

La investigación de Anthropic también detectó otros usos maliciosos de Claude AI en campañas como:

  • Esquemas de trabajadores de TI norcoreanos.
  • Operaciones de Ransomware-as-a-Service (RaaS).
  • Fraudes con tarjetas de crédito.
  • Bots para estafas románticas.
  • Malware con técnicas avanzadas de evasión, creado por desarrolladores de habla rusa.

Sin embargo, el caso de las 17 organizaciones marcó un precedente preocupante, ya que representó la primera vez que se documenta el uso de IA en cada etapa del ataque, desde la intrusión inicial hasta la redacción de las notas de ransomware.

La respuesta de Anthropic

Para enfrentar estos riesgos, la compañía mantiene un equipo especializado en inteligencia de amenazas que investiga abusos reales de sus agentes de IA, colabora con otros equipos para reforzar defensas y comparte indicadores clave con socios del ecosistema de ciberseguridad.

Aunque los nombres de las organizaciones afectadas no fueron revelados, es probable que salgan a la luz en el futuro, ya sea mediante reportes oficiales de brechas de seguridad o si los cibercriminales deciden publicar la información.

Fuente: https://www.malwarebytes.com/blog/news/2025/08/claude-ai-chatbot-abused-to-launch-cybercrime-spree