Эксплойты DeFi с помощью ИИ могут приносить злоумышленникам $10–20 млрд в год — предупреждение экспертов

  • Автор темы Автор темы Hazik
  • Дата начала Дата начала

Hazik

Модератор
Команда форума
Местный
Регистрация
03.10.2025
Сообщения
941


Недавнее исследование MATS и Anthropic Fellows показало: современные ИИ-агенты способны эффективно находить и использовать уязвимости смарт-контрактов, создавая реальный финансовый риск для DeFi-сектора.


Что обнаружило исследование


  • Использовались модели Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5.
  • На тестовом наборе SCONE-bench (405 реально взломанных контрактов 2020–2025 гг.) агенты успешно разработали эксплойты на сумму $4,6 млн.
  • На 2,849 новых контрактах без известных уязвимостей ИИ нашёл:
    • 2 новые zero-day уязвимости,
    • создал эксплойты на $3,694.
  • Себестоимость атаки GPT-5 составила всего $3,476 — то есть стоимость атаки стала ниже стоимости потенциального ущерба.

Почему это опасно


  • За последние 6 месяцев атакующая эффективность ИИ выросла в 3,4 раза.
  • Стоимость эксплуатации снизилась примерно на 70%.
  • Улучшение моделей (длинный контекст, память, агентные циклы) позволяет выполнять долгие, самокорректирующиеся цепочки действий — это резко повышает успех атак.

Оценка рисков


Эксперты считают, что реальные убытки будут гораздо выше:


  • Потенциальный ущерб от одной крупной атаки: $50–500 млн.
  • Годовой риск для индустрии: $10–20 млрд.

Причины:


  • автоматизация атак,
  • более быстрый реверс-инжиниринг ПО,
  • уязвимости оракулов и сложных DeFi-систем,
  • возможность скрытых многоэтапных атак.

Что предлагают исследователи


ИИ может быть использован и для защиты. Наиболее срочные меры:


  1. Надзор за ИИ-системами и их возможностями.
  2. Новые стандарты аудита смарт-контрактов с участием ИИ.
  3. Глобальная координация регуляторов, чтобы предотвратить системные финансовые риски.


 
Назад
Верх