En pruebas simuladas de Anthropic, agentes de IA descubren una vulnerabilidad en contratos inteligentes por 4.6 millones de dólares.
Según ChainCatcher, una investigación reciente de Anthropic muestra que los AI Agents poseen una capacidad considerable para realizar ataques on-chain: en pruebas simuladas con contratos inteligentes que realmente fueron hackeados entre 2020 y 2025, Claude Opus 4.5, Sonnet 4.5 y GPT-5 lograron reproducir vulnerabilidades que permitieron explotar aproximadamente 4.6 millones de dólares; al analizar 2.849 contratos que no tenían vulnerabilidades conocidas, dos de los modelos descubrieron dos nuevas vulnerabilidades zero-day y simularon con éxito la obtención de ganancias.
La investigación señala que las ganancias de los ataques on-chain realizados por IA se duplicaron aproximadamente cada 1,3 meses durante el último año, y que técnicamente ya cuentan con la capacidad de explotar vulnerabilidades de forma autónoma y rentable.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Western Union lanza una tarjeta de pago con stablecoins
Datos: Ranking de entradas/salidas de capital spot en 24 horas
