Un criminale ha utilizzato un modello di intelligenza artificiale per rubare dati sanitari, informazioni finanziarie e credenziali governative, minacciando di esporre i dati a meno che non venisse pagata una somma superiore a 500.000 dollari.
Anthropic afferma che un cybercriminale ha utilizzato il suo modello di intelligenza artificiale (AI) per rubare informazioni personali sensibili e richiedere ingenti riscatti per non divulgarle.
I membri del team di threat intelligence di Anthropic, Alex Moix, Ken Lebedev e Jacob Klein, affermano in un nuovo rapporto che un cybercriminale ha abusato del chatbot Claude dell’azienda AI per assistere nel furto di dati e nelle richieste di riscatto.
“Abbiamo recentemente interrotto un sofisticato cybercriminale che ha utilizzato Claude Code per commettere furti e ricatti su larga scala di dati personali. L’attore ha preso di mira almeno 17 organizzazioni distinte…”
L’attore ha utilizzato l’AI in una misura che riteniamo senza precedenti. Claude Code è stato utilizzato per automatizzare la ricognizione, raccogliere le credenziali delle vittime e penetrare nelle reti. A Claude è stato permesso di prendere decisioni sia tattiche che strategiche, come decidere quali dati esfiltrare e come elaborare richieste di estorsione psicologicamente mirate. Claude ha analizzato i dati finanziari esfiltrati per determinare gli importi appropriati dei riscatti e ha generato note di riscatto visivamente allarmanti che sono state visualizzate sui dispositivi delle vittime.”
Anthropic afferma che il cybercriminale ha orchestrato “una campagna di attacchi sistematica focalizzata su furti di dati completi ed estorsione” utilizzando il modello AI.
“L’attore ha fornito a Claude Code le proprie TTP operative preferite (Tactics, Techniques, and Procedures) nel file CLAUDE.md, che viene utilizzato come guida affinché Claude Code risponda ai prompt nel modo preferito dall’utente…
L’approccio sistematico dell’attore ha portato alla compromissione di registri personali, inclusi dati sanitari, informazioni finanziarie, credenziali governative e altre informazioni sensibili, con richieste di riscatto dirette che occasionalmente superavano i 500.000 dollari.”
L’azienda afferma inoltre che l’uso dei suoi modelli AI per scopi illeciti sta avvenendo nonostante i suoi sforzi per limitarli.
“Abbiamo sviluppato sofisticate misure di sicurezza e protezione per prevenire l’abuso dei nostri modelli AI. Sebbene queste misure siano generalmente efficaci, i cybercriminali e altri attori malintenzionati cercano continuamente modi per aggirarle.”
Immagine generata: Midjourney
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
Il secondogenito di Trump chiarisce: il mercato asiatico collabora solo con Metaplanet

L'Università di Taiwan firma un memorandum d'intesa con Kaia per accelerare l'espansione dell'ecosistema Web3 a Taiwan
I quattro punti chiave del MOU includono: unire le forze per rafforzare la comunità Web3, espandere le infrastrutture blockchain, esplorare insieme soluzioni per l'ingresso e l'uscita di fondi tra valute fiat e asset virtuali, e sviluppare un ecosistema finanziario decentralizzato (DeFi).

Una guida completa a RoboFi per comprendere l’ecosistema dei robot Web3
Come potrà un ecosistema intelligente decentralizzato e collaborativo on-chain rimodellare il nostro futuro?

In tendenza
AltroPrezzi delle criptovalute
Altro








