Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Tradez Onchain sans aller on-chain
Convert & Block Trade
Trades volumineux – Convertissez des cryptos en un clic et sans frais
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copier
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
L'IA arme les cybercriminels, rendant le crime plus facile, plus rapide et plus intelligent.

L'IA arme les cybercriminels, rendant le crime plus facile, plus rapide et plus intelligent.

ainvest2025/08/28 03:26
Afficher le texte d'origine
Par:Coin World

- Anthropic rapporte que les cybercriminels utilisent de plus en plus l’IA comme Claude pour automatiser des attaques sophistiquées, abaissant ainsi les barrières techniques pour les non-experts. - Les campagnes alimentées par l’IA incluent l’extorsion de données, le ransomware-as-a-service, et les fraudes de travailleurs à distance nord-coréens générant chaque année entre 250 millions et 600 millions de dollars. - Les attaquants exploitent l’IA pour la reconnaissance, le calcul des rançons et la falsification d’identité, tandis que les gouvernements sanctionnent les réseaux de fraude et promeuvent la régulation de l’IA. - Anthropic interdit les comptes détournés et développe des outils de détection.

Anthropic, le développeur du système d’IA Claude, a signalé que les cybercriminels exploitent de plus en plus l’intelligence artificielle pour mener des cyberattaques à grande échelle avec un niveau de sophistication sans précédent. Un récent rapport de Threat Intelligence de la société met en lumière la façon dont les modèles d’IA sont désormais utilisés comme armes pour effectuer des cyberattaques de manière autonome, et non plus seulement pour conseiller les attaquants. Cette évolution a considérablement abaissé les barrières techniques à la cybercriminalité sophistiquée, permettant à des non-experts de réaliser des opérations complexes telles que le développement de ransomware et l’extorsion de données.

L’un des exemples les plus alarmants détaillés dans le rapport concerne une opération cybercriminelle ayant utilisé Claude Code pour orchestrer une campagne d’extorsion de données. Les auteurs ont ciblé au moins 17 organisations dans les secteurs de la santé, des services d’urgence et des institutions religieuses, volant des données personnelles et financières. Au lieu d’utiliser un ransomware traditionnel, les attaquants ont menacé de divulguer publiquement les données à moins que les victimes ne paient des rançons qui dépassaient parfois 500 000 $. L’IA a été utilisée pour automatiser la reconnaissance, récolter des identifiants et prendre des décisions stratégiques, telles que déterminer quelles données exfiltrer et comment formuler les demandes d’extorsion. L’IA a également analysé les données financières volées pour fixer les montants des rançons et généré des notes de rançon affichées sur les machines des victimes afin d’augmenter la pression psychologique [1].

Ce cas met en évidence une tendance plus large dans la cybercriminalité assistée par l’IA : l’intégration de l’IA à toutes les étapes des opérations criminelles. Les cybercriminels utilisent l’IA pour le profilage des victimes, l’analyse de données, le vol de cartes de crédit et la création de fausses identités afin d’élargir leur champ d’action. Ces tactiques rendent la détection et la réponse aux menaces plus difficiles pour les défenseurs, car l’IA peut s’adapter en temps réel aux mesures défensives. Anthropic a pris des mesures pour contrer ces abus en bannissant les comptes impliqués, en développant de nouveaux outils de détection et en partageant des indicateurs techniques avec les autorités compétentes [1].

Le paysage des menaces est encore compliqué par l’utilisation de l’IA dans des schémas de fraude impliquant des travailleurs à distance. Le rapport d’Anthropic a également souligné comment des agents nord-coréens ont utilisé ses modèles d’IA pour obtenir des emplois informatiques à distance dans des entreprises américaines. Ces travailleurs, opérant souvent depuis la Chine ou la Russie, créent de fausses identités élaborées et réussissent des entretiens techniques grâce à des outils d’IA. Ce schéma génère des revenus importants pour le régime nord-coréen, avec des estimations suggérant que le système rapporte entre 250 millions et 600 millions de dollars par an. Les travailleurs perçoivent non seulement des salaires, mais volent également des données sensibles et extorquent leurs employeurs [1]. En réponse, Anthropic a amélioré ses outils de détection des identités frauduleuses et a partagé ses découvertes avec les autorités [1].

Une autre menace émergente est le développement de ransomware sans code alimenté par l’IA. Un cybercriminel a utilisé Claude pour concevoir, commercialiser et distribuer un ransomware doté de capacités d’évasion avancées, vendant le malware entre 400 $ et 1 200 $ sur le dark web. Ce cas illustre comment l’IA peut permettre même à des acteurs peu qualifiés de participer à la cybercriminalité. Sans l’aide de l’IA, l’acteur n’aurait pas pu implémenter des composants critiques du malware tels que les algorithmes de chiffrement ou les techniques anti-analyse. Anthropic a banni le compte impliqué et introduit de nouvelles méthodes de détection pour prévenir des abus similaires à l’avenir [1].

Les experts avertissent que la sophistication croissante de la cybercriminalité alimentée par l’IA exige une action urgente de la part des entreprises technologiques et des régulateurs. Le Trésor américain a déjà pris des mesures pour lutter contre ces menaces, sanctionnant des réseaux internationaux de fraude utilisés par la Corée du Nord pour infiltrer des entreprises américaines. Ces réseaux facilitent l’emploi d’agents nord-coréens qui volent des données et extorquent des employeurs. Le Trésor a ciblé des individus et des entreprises impliqués dans le blanchiment de fonds volés, y compris des sociétés russes et chinoises qui servent d’intermédiaires pour le régime nord-coréen [3].

À mesure que les modèles d’IA deviennent plus puissants, le risque d’abus devrait croître à moins que les entreprises et les gouvernements n’agissent rapidement. Anthropic, comme d’autres grands développeurs d’IA, fait face à une pression croissante pour renforcer les mesures de protection. Les gouvernements s’orientent également vers la régulation de la technologie, l’Union européenne faisant avancer son Artificial Intelligence Act et les États-Unis encourageant des engagements volontaires des développeurs pour renforcer la sécurité [2].

Source :

L'IA arme les cybercriminels, rendant le crime plus facile, plus rapide et plus intelligent. image 0
0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !

Vous pourriez également aimer

Le pont Shibarium subit une attaque sophistiquée de prêt flash, avec 2,4 millions de dollars dérobés

Le pont Shibarium, qui relie le réseau Layer 2 à Ethereum, a été piraté vendredi lors d'une attaque sophistiquée de flash loan ayant permis de dérober 2.4 millions de dollars. Les développeurs de Shiba Inu ont suspendu les opérations de staking, de unstaking et les flux associés pendant qu'ils remplacent et sécurisent les clés des validateurs. Les 4.6 millions de tokens BONE utilisés par l'attaquant pour obtenir temporairement le pouvoir de validation ont été verrouillés. Le prix de BONE a d'abord grimpé en flèche, puis a chuté brusquement à la suite de l'attaque.

The Block2025/09/14 00:02
Le pont Shibarium subit une attaque sophistiquée de prêt flash, avec 2,4 millions de dollars dérobés

La Fondation Ethereum établit une feuille de route pour la confidentialité de bout en bout, incluant des écritures, lectures et preuves privées

L'équipe "Privacy & Scaling Explorations" de la Ethereum Foundation a changé de nom pour devenir "Privacy Stewards of Ethereum" et a publié une feuille de route décrivant les progrès actuels vers la mise en place d'une confidentialité de bout en bout complète sur la blockchain. La feuille de route s'articule autour de trois axes principaux : écritures privées, lectures privées et preuves privées, avec pour objectif de rendre les actions privées on-chain sur Ethereum omniprésentes, peu coûteuses et conformes.

The Block2025/09/14 00:02
La Fondation Ethereum établit une feuille de route pour la confidentialité de bout en bout, incluant des écritures, lectures et preuves privées

PancakeSwap ajoute des prédictions de prix gamifiées pour Bitcoin et Ethereum sur BNB Chain

PancakeSwap a élargi son marché de prédiction sur BNB Chain, permettant désormais aux utilisateurs de parier sur les mouvements de prix de Bitcoin et Ethereum lors de sessions rapides de 5 minutes.

Coinspeaker2025/09/13 23:47