Moonwell, децентралізований фінансовий протокол (DeFi) для кредитування, активний у екосистемах Base та Optimism, став об’єктом цілеспрямованої експлуатації, яка принесла зловмисникам приблизно 1,78 мільйона доларів. Основною причиною стала помилка у ціновому оракулі для Coinbase Wrapped Staked ETH (cbETH), який повертав аномально низьке значення — близько 1,12 долара замість правильної ціни близько 2200 доларів — що створювало неправильне ціноутворення, яке досвідчені учасники могли використати для отримання прибутку. Інцидент підкреслює вразливість міжланцюгової DeFi-інфраструктури, коли дані цінових фідів подаються з помилками, а автоматизовані системи захоплюються неправдивою інформацією. Це також висвітлює роль штучного інтелекту у розробці смарт-контрактів та безпеці, тема, яка стає дедалі більш суперечливою через те, що команди покладаються на AI-інструменти для прискорення кодування та аудиту.
Історія пов’язує технічну помилку у ціноутворенні з питаннями управління та інженерії, що виходять за межі одного окремого випадку. Після інциденту активність розробки Moonwell привернула увагу, коли дослідник безпеки Леонід Пашов у соцмережах висловив занепокоєння щодо використання AI у базовому коді. Зміни у pull-запитах, пов’язаних із уразливими контрактами, містили кілька комітів, зроблених за допомогою Claude Opus 4.6 — посилання на AI-інструменти Anthropic, що спонукало Пашова публічно назвати цей випадок прикладом невдалого застосування AI для написання або допомоги у створенні Solidity-коду. Обговорення стосується не лише AI, а й того, чи було автоматичне створення коду доповнене належними заходами безпеки.
У розмові з Cointelegraph Пашов описав, як розгорталася ця ситуація: команда пов’язала випадок із Claude через те, що кілька комітів у pull-запитах були приписані до AI-процесу Claude, що натякало на використання AI для написання частин коду. Глибший сенс, за його словами, полягає не в тому, що AI сам по собі є недосконалим, а в тому, що процес не був належним чином перевірений та верифікований від початку до кінця. Це важливо, оскільки таке розмежування визначає інцидент як попереджувальний приклад щодо управління, дисципліни аудиту та тестування — факторів, які мають керувати будь-яким DeFi-проектом, що експериментує з AI-розробкою.
Вразливий код спричинив експлуатацію Moonwell. Джерело: Пашов
Перші коментарі від команди Moonwell свідчили, що на початковому етапі не було проведено достатнього тестування або аудиту. Пізніше команда заявила, що модульні та інтеграційні тести були зроблені у окремому pull-запиті, а аудит був замовлений у Halborn. Оцінка Пашова залишалася такою, що неправильне ціноутворення могло бути виявлено за допомогою достатньо строгого інтеграційного тесту, який поєднує логіку на ланцюгу та поза ним, хоча він не назвав конкретну аудиторську компанію. Обговорення торкнулося питання, чи слід вважати AI-генерований або AI-допомоглий код ненадійним входом, що підлягає суворому управлінню, контролю версій та багатоперсональному рецензуванню, особливо у високоризикових сферах, таких як управління доступом, взаємодія з оракулами, логіка ціноутворення та механізми оновлення.
Крім технічних деталей, інцидент Moonwell підсилив широку дискусію про роль AI у циклі розробки крипто-проектів. Фрейзер Едвардс, співзасновник і CEO cheqd — провайдера децентралізованої інфраструктури ідентичності — зазначив, що дискусія про «vibe coding» приховує два різні підходи до використання AI. З одного боку, нефахівці-засновники можуть покладатися на AI для створення коду, який вони не можуть самі перевірити; з іншого — досвідчені розробники використовують AI для прискорення рефакторингу, дослідження шаблонів і тестування ідей у зрілій інженерній практиці. Едвардс наголосив, що AI-допомогле розроблення може бути корисним на етапі MVP, але ніколи не має замінювати готову до виробництва інфраструктуру у капіталомістких сферах, таких як DeFi.
Едвардс закликав, щоб будь-який AI-генерований код смарт-контрактів розглядався як ненадійний вхід, що вимагає надійного контролю версій, чітко визначеного власника, багатоперсонального рецензування та передових тестів — особливо для модулів управління доступом, оракулами, логікою ціноутворення та механізмами оновлення. Він додав, що відповідальна інтеграція AI залежить від управління та дисципліни, з чіткими етапами перевірки та розмежуванням між створенням коду та його валідацією. Мета — забезпечити, щоб розгортання у ворожих середовищах не несло прихованих ризиків, які потрібно проактивно зменшувати.
Маленька втрата — великі питання управління
Інцидент Moonwell розміщується у ширшому контексті, де ризикова політика DeFi стикається з еволюцією практик розробки. Хоча сума збитків у цій експлуатації значно менша за деякі з найвідоміших зломів у DeFi — наприклад, хак мосту Ronin у березні 2022 року, що приніс понад 600 мільйонів доларів — цей випадок показує, як рішення щодо управління, тестування та інструментів можуть впливати на результати у реальному часі. Поєднання AI-редагувань, неправильного налаштування цінового оракула та вже пройденого аудиту піднімає важливе питання: як проєкти мають балансувати швидкість, інновації та безпеку, коли AI є частиною процесу розробки? Уроки стосуються будь-якого протоколу, що залежить від зовнішніх цінових фідів і складних шляхів оновлення, особливо коли ці оновлення зачіпають забезпечення та ліквідність.
Поки галузь зважує ці фактори, випадок Moonwell слугує практичним тестом на стійкість моделей безпеки, що прагнуть масштабувати AI-розробку без втрати ключових заходів безпеки. Він підкреслює, що навіть за наявності аудитів і тестів, повна верифікація, що охоплює взаємодії на ланцюгу та поза ним, залишається необхідною. Напруженість між швидким ітеративним розвитком і ретельною перевіркою навряд чи зменшиться, особливо коли все більше протоколів досліджують AI-інструменти для підтримки інновацій і одночасно зберігання безпеки.
«Vibe coding» проти дисциплінованого використання AI
Дискусія навколо AI-допомоглого кодування у крипто-індустрії змістилася з двобічної критики AI проти людських розробників до більш нюансованої дискусії про процеси. Рефлексії Едвардса підкреслюють, що AI може бути корисним помічником у рамках дисциплінованої системи, яка наголошує на контрольних точках, відповідальності та строгому тестуванні. Випадок Moonwell підтверджує, що AI-генерований код все ще потребує такої ж уваги та ретельності, як і ручний, а у високоризикових сферах DeFi — навіть більше, через підвищені ставки.
Практично це означає, що потрібно переосмислити управління AI-робочими процесами у командах розробки смарт-контрактів: хто володіє AI-генерованим результатом, як здійснюється рецензування змін і як автоматизовані тести відображають реальні сценарії у блокчейні. Головний висновок — не варто демонизувати технологію, а потрібно забезпечити, щоб управлінські канали, аудиторські процеси та валідація на ланцюгу були достатньо надійними для виявлення неправильних налаштувань і неправильних цін у період до того, як капітал буде під загрозою.
Що слід спостерігати далі
Moonwell окреслює кроки щодо виправлення та змін у управлінні після експлуатації, зокрема щодо оновлення цінових оракулів та шляхів оновлення.
Аудитори та команда Moonwell опублікували детальний звіт і оновлену систему тестування, що явно зв’язує сценарії на ланцюгу з модульними та інтеграційними тестами.
Додаткові незалежні аудити зосереджені на роботі AI у процесі розробки та їх впливі на критичні компоненти смарт-контрактів.
На рівні ланцюга впроваджуються моніторинг і системи оповіщення для виявлення цінових аномалій у реальному часі та запуску захисних заходів, таких як автоматичні зупинки або паузи.
Джерела та перевірки
Pull-запит контрактів Moonwell v2, що виявив проблему неправильного ціноутворення: https://github.com/moonwell-fi/moonwell-contracts-v2/pull/578
Публічне обговорення дослідника безпеки Пашова щодо AI-інструментів у Moonwell: https://x.com/pashov/status/2023872510077616223
Контекст щодо зломів у DeFi та управлінських наслідків (Ronin, Nomad тощо), наведений у відповідних матеріалах: https://cointelegraph.com/news/battle-hardened-ronin-bridge-to-axie-reopens-following-600m-hack та https://cointelegraph.com/news/suspect-behind-190-million-nomad-bridge-hack-extradited-us
Обговорення у галузі щодо AI у крипто-управлінні та дослідження практик AI-допомоглої розробки
AI-допомогане кодування, неправильне ціноутворення та управління у Moonwell: що це означає для DeFi
Досвід Moonwell ілюструє практичний конфлікт між інструментами з підтримкою AI та безпекою у DeFi. Помилка у ціновому фіді cbETH показує, що навіть незначні числові помилки в оракулах можуть спричинити суттєві збитки, коли стратегія та фінансування залучені через протокол кредитування. Головний урок — AI-інструменти можуть прискорити ітерації, але не замінюють необхідність у строгих повних перевірках, що імітують реальні взаємодії у блокчейні.
У короткостроковій перспективі цей інцидент має спонукати команди протоколів переглянути управлінські структури щодо генерації коду, відповідальності за рецензування та балансу між автоматизованими інструментами й людським контролем. Також важливо впроваджувати надійні інтеграційні тести, що з’єднують стан на ланцюгу з зовнішніми даними, щоб запобігти можливості експлуатації неправильного ціноутворення поза межами системи ризик-контролю. У міру того, як інші проєкти досліджують AI-інструменти, випадок Moonwell стане орієнтиром щодо балансування швидкості та безпеки, а також відповідальності за вразливості, спричинені AI-кодом.
Ця стаття спочатку була опублікована під назвою Moonwell hit by $1.78M exploit as AI coding debate reaches DeFi на Crypto Breaking News — вашому надійному джерелі новин про криптовалюти, Bitcoin та блокчейн.