Bitget App
Trading Inteligente
Comprar criptoMercadosTradingFuturosEarnCentroMás
En pruebas simuladas de Anthropic, agentes de IA descubren una vulnerabilidad en contratos inteligentes por 4.6 millones de dólares.

En pruebas simuladas de Anthropic, agentes de IA descubren una vulnerabilidad en contratos inteligentes por 4.6 millones de dólares.

ChaincatcherChaincatcher2025/12/02 03:07
Mostrar el original

Según ChainCatcher, una investigación reciente de Anthropic muestra que los AI Agents poseen una capacidad considerable para realizar ataques on-chain: en pruebas simuladas con contratos inteligentes que realmente fueron hackeados entre 2020 y 2025, Claude Opus 4.5, Sonnet 4.5 y GPT-5 lograron reproducir vulnerabilidades que permitieron explotar aproximadamente 4.6 millones de dólares; al analizar 2.849 contratos que no tenían vulnerabilidades conocidas, dos de los modelos descubrieron dos nuevas vulnerabilidades zero-day y simularon con éxito la obtención de ganancias.

La investigación señala que las ganancias de los ataques on-chain realizados por IA se duplicaron aproximadamente cada 1,3 meses durante el último año, y que técnicamente ya cuentan con la capacidad de explotar vulnerabilidades de forma autónoma y rentable.

0
0

Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.

PoolX: Haz staking y gana nuevos tokens.
APR de hasta 12%. Gana más airdrop bloqueando más.
¡Bloquea ahora!
© 2025 Bitget