Explotaciones de contratos inteligentes con IA: experto advierte que los agentes podrían provocar pérdidas anuales de 10.000 a 20.000 millones de dólares en el sector DeFi
Un estudio reciente de MATS y Anthropic Fellows confirma que los agentes de IA pueden explotar vulnerabilidades en contratos inteligentes de forma rentable, estableciendo un “límite inferior concreto” para el daño económico.
Nuevas explotaciones y alarmante reducción de costes
El impulso acelerado para automatizar tareas humanas mediante agentes de Inteligencia Artificial (IA) se enfrenta ahora a una desventaja significativa y cuantificable: estos agentes pueden explotar vulnerabilidades en contratos inteligentes de manera rentable. Un estudio reciente de MATS y Anthropic Fellows utilizó el benchmark de Explotación de Contratos Inteligentes (SCONE-bench) para medir este riesgo.
El estudio desplegó con éxito modelos como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 para desarrollar explotaciones simuladas por un valor de 4,6 millones de dólares. El SCONE-bench está compuesto por 405 contratos inteligentes que fueron explotados realmente entre 2020 y 2025. En su informe del 1 de diciembre, el equipo afirmó que el éxito de los agentes de IA desarrollando explotaciones probadas en el simulador de blockchain establece “un límite inferior concreto para el daño económico que estas capacidades podrían permitir”.
La investigación fue más allá, probando Sonnet 4.5 y GPT-5 contra 2.849 contratos desplegados recientemente sin vulnerabilidades conocidas. Los agentes demostraron que podían generar explotaciones rentables incluso en este nuevo entorno: ambos agentes descubrieron dos vulnerabilidades zero-day inéditas y produjeron explotaciones valoradas en 3.694 dólares. GPT-5 logró este éxito con un coste de API de solo 3.476 dólares.
Leer más: De DeFi a Defcon: TRM advierte de un asalto cibernético de Estados nación
Este resultado sirve como prueba de concepto de la viabilidad técnica de la explotación autónoma, rentable y real, subrayando la necesidad inmediata de mecanismos de defensa impulsados por IA.
Quizás el hallazgo más preocupante es el dramático aumento de eficiencia: un atacante ahora puede lograr aproximadamente 3,4 veces más explotaciones exitosas con el mismo presupuesto de computación que hace seis meses. Además, los costes en tokens para explotaciones exitosas han disminuido en un asombroso 70%, haciendo que estos potentes agentes sean significativamente más baratos de operar.
El papel de los bucles agénticos y la mejora de modelos
Jean Rausis, cofundador de SMARDEX, atribuye este pronunciado descenso de costes principalmente a los bucles agénticos. Estos bucles permiten flujos de trabajo en múltiples pasos y autocorrección, que reducen el desperdicio de tokens durante el análisis de contratos. Rausis también destaca el papel de la mejora en la arquitectura de modelos:
“Ventanas de contexto más grandes y herramientas de memoria en modelos como Claude Opus 4.5 y GPT-5 permiten simulaciones sostenidas sin repeticiones, aumentando la eficiencia entre un 15% y un 100% en tareas largas.”
Señala que estas mejoras de optimización superan la mejora bruta en la detección de vulnerabilidades (que solo aumentó el éxito en SCONE-bench del 2% al 51%), ya que se centran en optimizar el tiempo de ejecución y no solo en detectar fallos.
Si bien el estudio establece un coste simulado de 4,6 millones de dólares, los expertos temen que el coste económico real podría ser sustancialmente mayor. Rausis estima que los riesgos reales podrían ser de 10 a 100 veces superiores, alcanzando potencialmente $50 millón a $500 millón o más por cada gran explotación. Advierte que, con la escalabilidad de la IA, la exposición total del sector —teniendo en cuenta el apalancamiento no modelado y los fallos de oráculo— podría alcanzar los 10-20 mil millones de dólares anuales.
El artículo de MATS y Anthropic Fellows concluye con una advertencia: aunque los contratos inteligentes pueden ser el objetivo inicial de esta ola de ataques automatizados, el software propietario probablemente será el siguiente objetivo a medida que los agentes mejoren en ingeniería inversa.
De manera crucial, el artículo también recuerda a los lectores que los mismos agentes de IA pueden desplegarse para defensa y parchear vulnerabilidades. Para mitigar la amenaza financiera sistémica de los ataques DeFi fácilmente automatizables, Rausis propone un plan de acción en tres pasos para legisladores y reguladores: supervisión de la IA, nuevos estándares de auditoría y coordinación global.
FAQ ❓
¿Qué reveló el estudio sobre los agentes de IA? Modelos de IA como GPT‑5 y Claude explotaron contratos inteligentes por valor de 4,6 millones de dólares en simulaciones.
¿Por qué este riesgo está aumentando en todo el mundo? Los costes en tokens para explotaciones cayeron un 70%, abaratando y escalando los ataques en todas las regiones.
¿Podría el impacto financiero ir más allá de DeFi? Expertos advierten que las pérdidas reales podrían alcanzar los 50 millones–$500M por explotación, con una exposición global de hasta $20B anualmente.
¿Cómo pueden responder los reguladores y desarrolladores? Los investigadores instan a supervisión de la IA, estándares de auditoría más sólidos y coordinación transfronteriza para defender los sistemas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Explotaciones de contratos inteligentes con IA: experto advierte que los agentes podrían provocar pérdidas anuales de 10.000 a 20.000 millones de dólares en el sector DeFi
Un estudio reciente de MATS y Anthropic Fellows confirma que los agentes de IA pueden explotar vulnerabilidades en contratos inteligentes de forma rentable, estableciendo un “límite inferior concreto” para el daño económico.
Nuevas explotaciones y alarmante reducción de costes
El impulso acelerado para automatizar tareas humanas mediante agentes de Inteligencia Artificial (IA) se enfrenta ahora a una desventaja significativa y cuantificable: estos agentes pueden explotar vulnerabilidades en contratos inteligentes de manera rentable. Un estudio reciente de MATS y Anthropic Fellows utilizó el benchmark de Explotación de Contratos Inteligentes (SCONE-bench) para medir este riesgo.
El estudio desplegó con éxito modelos como Claude Opus 4.5, Claude Sonnet 4.5 y GPT-5 para desarrollar explotaciones simuladas por un valor de 4,6 millones de dólares. El SCONE-bench está compuesto por 405 contratos inteligentes que fueron explotados realmente entre 2020 y 2025. En su informe del 1 de diciembre, el equipo afirmó que el éxito de los agentes de IA desarrollando explotaciones probadas en el simulador de blockchain establece “un límite inferior concreto para el daño económico que estas capacidades podrían permitir”.
La investigación fue más allá, probando Sonnet 4.5 y GPT-5 contra 2.849 contratos desplegados recientemente sin vulnerabilidades conocidas. Los agentes demostraron que podían generar explotaciones rentables incluso en este nuevo entorno: ambos agentes descubrieron dos vulnerabilidades zero-day inéditas y produjeron explotaciones valoradas en 3.694 dólares. GPT-5 logró este éxito con un coste de API de solo 3.476 dólares.
Leer más: De DeFi a Defcon: TRM advierte de un asalto cibernético de Estados nación
Este resultado sirve como prueba de concepto de la viabilidad técnica de la explotación autónoma, rentable y real, subrayando la necesidad inmediata de mecanismos de defensa impulsados por IA.
Quizás el hallazgo más preocupante es el dramático aumento de eficiencia: un atacante ahora puede lograr aproximadamente 3,4 veces más explotaciones exitosas con el mismo presupuesto de computación que hace seis meses. Además, los costes en tokens para explotaciones exitosas han disminuido en un asombroso 70%, haciendo que estos potentes agentes sean significativamente más baratos de operar.
El papel de los bucles agénticos y la mejora de modelos
Jean Rausis, cofundador de SMARDEX, atribuye este pronunciado descenso de costes principalmente a los bucles agénticos. Estos bucles permiten flujos de trabajo en múltiples pasos y autocorrección, que reducen el desperdicio de tokens durante el análisis de contratos. Rausis también destaca el papel de la mejora en la arquitectura de modelos:
“Ventanas de contexto más grandes y herramientas de memoria en modelos como Claude Opus 4.5 y GPT-5 permiten simulaciones sostenidas sin repeticiones, aumentando la eficiencia entre un 15% y un 100% en tareas largas.”
Señala que estas mejoras de optimización superan la mejora bruta en la detección de vulnerabilidades (que solo aumentó el éxito en SCONE-bench del 2% al 51%), ya que se centran en optimizar el tiempo de ejecución y no solo en detectar fallos.
Si bien el estudio establece un coste simulado de 4,6 millones de dólares, los expertos temen que el coste económico real podría ser sustancialmente mayor. Rausis estima que los riesgos reales podrían ser de 10 a 100 veces superiores, alcanzando potencialmente $50 millón a $500 millón o más por cada gran explotación. Advierte que, con la escalabilidad de la IA, la exposición total del sector —teniendo en cuenta el apalancamiento no modelado y los fallos de oráculo— podría alcanzar los 10-20 mil millones de dólares anuales.
El artículo de MATS y Anthropic Fellows concluye con una advertencia: aunque los contratos inteligentes pueden ser el objetivo inicial de esta ola de ataques automatizados, el software propietario probablemente será el siguiente objetivo a medida que los agentes mejoren en ingeniería inversa.
De manera crucial, el artículo también recuerda a los lectores que los mismos agentes de IA pueden desplegarse para defensa y parchear vulnerabilidades. Para mitigar la amenaza financiera sistémica de los ataques DeFi fácilmente automatizables, Rausis propone un plan de acción en tres pasos para legisladores y reguladores: supervisión de la IA, nuevos estándares de auditoría y coordinación global.
FAQ ❓