En septiembre de 2025, Anthropic, la empresa detrás de Claude, identificó lo que puede considerarse el primer ataque automatizado realizado con el auxilio de IA, alcanzando 30 empresas y marcando un cambio significativo en la forma en que los criminales digitales operan.
El episodio 408 del podcast Segurança Legal discute un informe divulgado por Anthropic, empresa responsable del modelo Claude, sobre una sofisticada operación de ciberataque que utilizó inteligencia artificial para automatizar diversas etapas de intrusión. Lo más preocupante no es solo la ocurrencia del ataque en sí, sino lo que representa: la facilitación de la implementación de técnicas avanzadas de intrusión, permitiendo que personas con menos conocimiento técnico ejecuten operaciones complejas que antes requerían expertise especializado.
Cómo funcionó el ataque
Los criminales, identificados con alto grado de confianza como un grupo financiado por el Estado chino, desarrollaron una estructura de agentes de IA equipados con herramientas específicas para cada fase del ataque. Utilizando el protocolo MCP (Model Context Protocol), crearon interfaces que permitieron a la IA usar herramientas de seguridad comunes de forma automatizada.
El ataque fue dividido en cuatro fases principales: reconocimiento (con escaneo de red y recolección de datos), identificación de vulnerabilidades (búsqueda de herramientas de explotación), explotación efectiva de las fallas y movimiento lateral (recolección de credenciales y acceso a otros sistemas). "Dividieron todo el ataque en varias etapas y aislaron a los agentes para evitar que el modelo detectara una actividad maliciosa", explica Vinícius Serafim.
Qué son los agentes de IA y por qué importan
Para comprender la dimensión de esta amenaza, es fundamental entender el concepto de agentes de IA. A diferencia de una simple consulta a ChatGPT, un agente es una IA equipada con herramientas que le permiten interactuar con el ambiente digital de forma autónoma. Como destaca Guilherme Goulart: "La IA todavía es muy dependiente de lo que le pedimos que haga, y estos movimientos que hemos visto últimamente muestran que aún estamos dando los primeros pasos hacia una mayor autonomía de la IA."
En el caso del ataque, los criminales proporcionaron al modelo herramientas de código abierto ampliamente disponibles en internet, como Nmap para escaneo de puertos, y crearon prompts cuidadosamente elaborados para eludir las protecciones de seguridad del modelo. Estas herramientas, tradicionalmente operadas manualmente por hackers, fueron integradas al sistema a través de interfaces que permitieron a la IA ejecutarlas, analizar los resultados y tomar decisiones sobre los próximos pasos.
Principales insights del episodio
Automatización como nuevo estándar: Este no fue un caso de IA actuando de forma autónoma o "enloquecida", sino una herramienta poderosa en manos de criminales experimentados. La gran innovación está en la capacidad de automatizar procesos complejos que anteriormente requerían intervención humana constante, permitiendo ataques a escala sin precedentes.
Reducción de la barrera técnica: Como advierte Vinícius Serafim, "bajó el listón para ataques más sofisticados, porque ahora personas con menos conocimiento van a poder realizar ataques más complejos que antes no podían hacer". Esto significa que el llamado "script kiddie" — aquel individuo con conocimiento limitado que ejecuta herramientas listas — ahora tiene acceso a capacidades que antes eran exclusivas de especialistas.
Segmentación estratégica: Los atacantes dividieron deliberadamente el ataque en etapas aisladas, usando diferentes agentes para cada fase. Esta estrategia impidió que los mecanismos de seguridad del modelo identificaran la naturaleza maliciosa de la operación en su conjunto, ya que cada tarea individualmente parecía legítima.
Independencia de plataforma: Aunque el ataque utilizó Claude de Anthropic, la estructura desarrollada podría fácilmente adaptarse a cualquier otro modelo de IA, sea GPT, Gemini o incluso modelos open-source ejecutados localmente. "Estos tipos cambian a ChatGPT y van a tener que ajustar quizás un prompt u otro, pero pueden usar GPT, pueden usar Gemini, pueden usar Grok", observa Serafim.
Asimetría defensiva: La defensa cibernética siempre fue un juego asimétrico, pero la IA intensifica este desequilibrio. Como explica Guilherme Goulart: "Quien defiende tiene que encontrar todos los agujeros, todas las posibilidades de entrada en un ambiente. Quien ataca solo tiene que encontrar uno." Con la IA acelerando la capacidad de identificación y explotación de vulnerabilidades, esta asimetría se vuelve aún más pronunciada.
El futuro de la amenaza
Este ataque representa solo el comienzo de una nueva era en la seguridad cibernética. Actualmente, la automatización se enfocó en metodologías conocidas y vulnerabilidades ya documentadas, pero el próximo paso inevitable será el descubrimiento de vulnerabilidades zero-day — fallas desconocidas que no tienen corrección disponible.
"Siempre asuma que está usando la peor IA, que la IA que usa hoy es la peor que ha existido. Las cosas solo van a mejorar", advierte Serafim, citando el libro de Ethan Mollick. A medida que los modelos se vuelven más potentes y accesibles, incluyendo versiones que pueden ejecutarse localmente sin restricciones de seguridad, la capacidad de realizar ataques sofisticados continuará expandiéndose.
Lecciones para organizaciones
Para empresas y profesionales de seguridad, este incidente sirve como una alerta urgente. La automatización de ataques significa que vulnerabilidades conocidas en sistemas desactualizados serán explotadas más rápidamente y a mayor escala. Las organizaciones necesitan priorizar la actualización de sistemas, implementar estrategias robustas de detección de amenazas y considerar el uso de IA también para fortalecer sus defensas.
Anthropic publicó el informe completo con detalles técnicos y está utilizando las lecciones aprendidas para reforzar los mecanismos de seguridad de Claude. Sin embargo, como destacan los presentadores, la solución no está solo en manos de las empresas de IA, sino también en las organizaciones que necesitan reconocer y adaptarse a esta nueva realidad de amenazas.
Conclusión
El ataque analizado en este episodio representa un hito histórico en la evolución de las amenazas cibernéticas. No se trata de ciencia ficción o de una IA malintencionada actuando por cuenta propia, sino de criminales sofisticados que encontraron formas de amplificar sus capacidades a través de la automatización inteligente.
Como enfatiza el podcast, "esto es solo el comienzo". Las organizaciones que no tomen en serio esta transformación en el panorama de amenazas estarán cada vez más vulnerables a ataques automatizados, escalables y cada vez más sofisticados.
¿Desea mantenerse actualizado sobre las últimas tendencias en seguridad de la información y protección de datos? Acceda al informe completo de Anthropic en las notas del episodio y considere apoyar al podcast Segurança Legal a través de Apoia.se para garantizar la continuidad de este proyecto independiente de producción de conocimiento.
Este post fue resumido a partir del audio del podcast con el uso de IA, con revisión humana.