Um hacker explorou um chatbot de inteligência artificial líder para orquestrar o esquema cibernético mais extenso e lucrativo envolvendo IA até agora, segundo um novo relatório da Anthropic, a empresa por trás do popular chatbot Claude.
A Anthropic não revelou todas as 17 empresas vítimas, mas confirmou que incluíam um contratante de defesa, uma instituição financeira e vários prestadores de serviços de saúde.
A violação resultou no roubo de dados sensíveis, incluindo números de Seguro Social, detalhes bancários e registros médicos confidenciais, disse a Anthropic. O hacker também acessou arquivos relacionados a informações sensíveis de defesa dos EUA reguladas pela Regulamentação de Tráfego Internacional de Armas (ITAR).
Quanto os hackers conseguiram dos alvos do Claude?
Não está claro quanto o hacker extorquiu ou quantas empresas pagaram, mas as demandas variaram de aproximadamente 75.000 a mais de 500.000 dólares, disse o relatório. A operação, que durou mais de três meses, envolveu implantação de malware, análise de dados e esforços de extorsão direcionados.
Jacob Klein, chefe de inteligência de ameaças da Anthropic, disse que a campanha parecia vir de um hacker individual fora dos EUA.
“Temos salvaguardas robustas e múltiplas camadas de defesa para detectar esse tipo de uso indevido, mas atores determinados às vezes tentam evadir nossos sistemas por meio de técnicas sofisticadas,” disse ele.
Como os hackers usaram a IA para lançar essa onda de crimes com chatbots?
De acordo com a análise de ameaças da empresa, o ataque começou com o hacker convencendo Claude a identificar empresas vulneráveis a ataques. Claude, que se especializa em gerar código com base em prompts simples—um processo conhecido como “vibe coding”—foi instruído a apontar alvos com fraquezas exploráveis.
A Anthropic afirma que o hacker então fez o chatbot criar software malicioso projetado para extrair informações sensíveis, como dados pessoais e arquivos corporativos das vítimas. Uma vez roubados, Claude categorizou e analisou os dados para determinar o que era mais valioso e poderia ser utilizado para extorsão.
Para o hacker, as ferramentas de análise embutidas do chatbot ajudaram bastante. A Anthropic disse que Claude até avaliou os documentos financeiros comprometidos, ajudando o atacante a estimar um valor de resgate realista em Bitcoin, e redigiu e-mails ameaçadores exigindo pagamento em troca de não liberar ou explorar os dados roubados.
Podemos esperar mais criminosos de chatbots?
Provavelmente. Os hackers historicamente têm sido muito bons em aprender e manipular tecnologia para encontrar as maneiras mais lucrativas ou eficazes de usá-la para um objetivo específico que tenham.
Mais amplamente, o caso destaca os riscos que tanto usuários quanto investidores no setor correm ao utilizar IA. À medida que a indústria de IA, em grande parte não regulamentada, se entrelaça mais com o cibercrime, com dados recentes mostrando que os hackers estão cada vez mais aproveitando ferramentas de IA para facilitar fraudes, ransomware e violações de dados.
Recentemente, isso significou que os hackers usaram uma variedade de ferramentas especializadas em IA para conseguir o que queriam, incluindo o uso de chatbots para coisas como redigir e-mails de phishing, como fizeram neste esquema da NASA.
“Já vemos elementos criminosos e de estados-nação utilizando IA,” disse Rob Joyce, Diretor de Cibersegurança da NSA, no início deste ano. “Estamos vendo operadores de inteligência, estamos vendo criminosos nessas plataformas.”
