- Регистрация
- 03.10.2025
- Сообщения
- 941
Недавнее исследование MATS и Anthropic Fellows показало: современные ИИ-агенты способны эффективно находить и использовать уязвимости смарт-контрактов, создавая реальный финансовый риск для DeFi-сектора.
Что обнаружило исследование
- Использовались модели Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5.
- На тестовом наборе SCONE-bench (405 реально взломанных контрактов 2020–2025 гг.) агенты успешно разработали эксплойты на сумму $4,6 млн.
- На 2,849 новых контрактах без известных уязвимостей ИИ нашёл:
- 2 новые zero-day уязвимости,
- создал эксплойты на $3,694.
- Себестоимость атаки GPT-5 составила всего $3,476 — то есть стоимость атаки стала ниже стоимости потенциального ущерба.
Почему это опасно
- За последние 6 месяцев атакующая эффективность ИИ выросла в 3,4 раза.
- Стоимость эксплуатации снизилась примерно на 70%.
- Улучшение моделей (длинный контекст, память, агентные циклы) позволяет выполнять долгие, самокорректирующиеся цепочки действий — это резко повышает успех атак.
Оценка рисков
Эксперты считают, что реальные убытки будут гораздо выше:
- Потенциальный ущерб от одной крупной атаки: $50–500 млн.
- Годовой риск для индустрии: $10–20 млрд.
Причины:
- автоматизация атак,
- более быстрый реверс-инжиниринг ПО,
- уязвимости оракулов и сложных DeFi-систем,
- возможность скрытых многоэтапных атак.
Что предлагают исследователи
ИИ может быть использован и для защиты. Наиболее срочные меры:
- Надзор за ИИ-системами и их возможностями.
- Новые стандарты аудита смарт-контрактов с участием ИИ.
- Глобальная координация регуляторов, чтобы предотвратить системные финансовые риски.