A indústria de cibersegurança alerta sobre um ponto de inflexão: modelos de Inteligência Artificial (IA) estão se tornando avançados o suficiente para desempenhar papéis centrais em ataques cibernéticos. O aviso foi dado pela Anthropic. Esse marco, que parecia distante, chegou mais rápido do que o previsto. Avaliações recentes indicavam uma duplicação das capacidades cibernéticas dos modelos em apenas seis meses. Paralelamente, cresciam indícios de que agentes maliciosos já exploravam IA em operações reais.
Em meados de setembro de 2025, esse cenário mudou de escala. A Anthropic detectou uma atividade suspeita, que revelou uma campanha global de espionagem conduzida de forma inédita por agentes autônomos de IA, capazes de tomar decisões, executar tarefas e manter ataques.
A campanha secreta
A operação, segundo a empresa, foi conduzida por um grupo patrocinado pelo Estado chinês. O grupo explorou o sistema Claude Code, desenvolvido pela Anthropic, e o transformou em executor direto dos ataques. O alvo incluía grandes empresas de tecnologia, instituições financeiras, fabricantes de produtos químicos e órgãos governamentais. Os alvos foram cerca de trinta organizações ao redor do mundo.
Ao identificar o ataque, a Anthropic lançou uma investigação emergencial: bloqueio de contas, notificação das entidades afetadas, coordenação com autoridades para recolha de inteligência. Nos dez dias seguintes, mapearam-se a gravidade e o alcance da operação.
Essa operação pode ser a primeira documentada de um ataque cibernético em larga escala executado sem intervenção humana substancial. Entre 80% a 90% da campanha foi conduzida pelo modelo de IA, e apenas 4 a 6 decisões críticas foram tomadas por humanos.
Agentes autônomos
A principal diferença deste caso para ataques anteriores está na evolução dos agentes de IA. Ou seja, sistemas capazes de operar de forma autônoma, encadear tarefas e tomar decisões sem supervisão contínua. Eles já desempenham papéis produtivos no dia a dia de empresas, mas, nas mãos erradas, podem escalar ataques a níveis antes impossíveis.
Segundo a Anthropic, é provável que esses ataques se tornem ainda mais eficazes. A rápida evolução tecnológica amplificou esse risco. Os modelos atuais entendem instruções complexas, contextualizam situações, escrevem código avançado e usam ferramentas externas, desde mecanismos de busca até softwares especializados em segurança. Muitas dessas ferramentas, integradas via padrões abertos como o Model Context Protocol, ampliam o alcance operacional de um ataque.
Como tudo aconteceu
O ataque avançou por fases muito bem calculadas. Primeiro, operadores humanos definiram os alvos e construíram uma estrutura de ataque automatizada que usaria Claude Code para executar tarefas sensíveis. Em seguida, manipularam o modelo para contornar proteções, dividindo ações maliciosas em tarefas aparentemente inofensivas.
Para enganar o sistema, os atacantes convenceram o modelo de que trabalhava para uma empresa legítima de segurança. Sem o contexto global, o modelo passou a cumprir ordens fragmentadas que, combinadas, compunham a ofensiva.
Na etapa seguinte, Claude inspecionou sistemas internos e infraestruturas, identificou bancos de dados valiosos em uma velocidade inalcançável por uma equipe humana. Depois, encontrou vulnerabilidades, desenvolveu códigos de exploração, obteve credenciais, abriu backdoors e exfiltrou dados classificados conforme seu valor estratégico. Isso com supervisão humana mínima.
O modelo chegou a produzir relatórios completos, além de criar arquivos com credenciais roubadas e estruturas internas das organizações, documentação que serviria à continuidade das operações.
Apesar da sofisticação, o sistema apresentou falhas típicas de IA: criação de credenciais inexistentes e relatos imprecisos. Ainda assim, isso não impediu que a maior parte da campanha fosse bem-sucedida.
Os impactos
O caso indica que a barreira técnica para realizar ataques massivos caiu drasticamente. Se antes era necessário um time grande de especialistas, agora grupos com poucos recursos e conhecimento intermediário podem orquestrar operações complexas usando IA.
A velocidade também mudou o jogo. Durante o pico da campanha, Claude realizou milhares de operações por segundo, algo impossível para qualquer equipe humana. A escalabilidade é tamanha que ataques simultâneos, distribuídos globalmente, passam a ser uma possibilidade real e iminente.
Esse cenário representa uma evolução até mesmo em relação ao chamado “hacking de vibe”, observado meses antes, no qual humanos ainda guiavam a maior parte das decisões. Agora, a IA assume o protagonismo operacional.
A resposta necessária
A pergunta é: se os modelos de IA podem ser usados indevidamente para ciberataques nessa escala, por que continuar a desenvolvê-los e lançá-los? Segundo especialistas da Anthropic, a resposta está na própria simetria da tecnologia. As ferramentas que tornam modelos como Claude perigosos nas mãos de agentes maliciosos também os tornam essenciais para a defesa cibernética.
Durante a investigação, o próprio Claude foi usado para analisar o enorme volume de dados gerado pelo ataque.
O setor recomenda que empresas reforcem o uso da IA para automação de Centros de Operações de Segurança (SOC), detecção de ameaças, avaliação de vulnerabilidades e resposta a incidentes. Da mesma forma, desenvolvedores são estimulados a ampliar salvaguardas, mecanismos de auditoria e controles contra usos indevidos.
O compartilhamento transparente de casos como este também se torna indispensável. À medida que ataques automatizados se expandirem, a colaboração entre empresas, pesquisadores e governos deve se intensificar.





