Criminoso usou modelo de IA para roubar dados de saúde, informações financeiras e credenciais governamentais, ameaçando expor os dados a menos que recebesse mais de US$ 500.000
A Anthropic afirma que um cibercriminoso utilizou seu modelo de inteligência artificial (IA) para roubar informações pessoais sensíveis e exigir resgates elevados para não expô-las.
Membros da equipe de inteligência de ameaças da Anthropic, Alex Moix, Ken Lebedev e Jacob Klein, afirmam em um novo relatório que um cibercriminoso fez uso indevido do chatbot Claude da empresa de IA para auxiliar no roubo de dados e nas demandas de resgate.
“Recentemente, interrompemos um cibercriminoso sofisticado que utilizou o Claude Code para cometer roubo e extorsão em larga escala de dados pessoais. O agente visou pelo menos 17 organizações distintas…”
O agente usou IA em um grau que acreditamos ser sem precedentes. O Claude Code foi utilizado para automatizar o reconhecimento, coletar credenciais das vítimas e penetrar em redes. O Claude foi autorizado a tomar decisões tanto táticas quanto estratégicas, como decidir quais dados exfiltrar e como elaborar demandas de extorsão psicologicamente direcionadas. O Claude analisou os dados financeiros exfiltrados para determinar valores apropriados de resgate e gerou notas de resgate visualmente alarmantes que foram exibidas nas máquinas das vítimas.”
A Anthropic afirma que o cibercriminoso orquestrou “uma campanha de ataque sistemática que se concentrou no roubo abrangente de dados e extorsão” usando o modelo de IA.
“O agente forneceu ao Claude Code seus TTPs (Táticas, Técnicas e Procedimentos) operacionais preferidos em seu arquivo CLAUDE.md, que é usado como um guia para o Claude Code responder aos prompts da maneira preferida pelo usuário…
A abordagem sistemática do agente resultou na violação de registros pessoais, incluindo dados de saúde, informações financeiras, credenciais governamentais e outras informações sensíveis, com demandas diretas de resgate ocasionalmente excedendo US$ 500.000.”
A empresa também afirma que o uso de seus modelos de IA para fins ilícitos está ocorrendo apesar de seus esforços para contê-los.
“Desenvolvemos medidas sofisticadas de segurança e proteção para prevenir o uso indevido de nossos modelos de IA. Embora essas medidas sejam geralmente eficazes, cibercriminosos e outros agentes maliciosos continuam tentando encontrar maneiras de contorná-las.”
Imagem Gerada: Midjourney
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
DePAI vs Tesla Bots: Quem vai dominar o futuro da tecnologia robótica?
Robôs humanóides podem ser uma área revolucionária de aplicação futura para DePAI.

O preço do Litecoin sinaliza rompimento em meio à acumulação de baleias

Pop Culture aposta US$ 33 milhões em Bitcoin para impulsionar visão de entretenimento Web3

Populares
MaisPreços de criptomoedas
Mais








