DeFAI зростає: безпека AI-агентів стає новим викликом для Web3

robot
Генерація анотацій у процесі

Злиття AI та Web3 викликає зростання DeFAI, безпекові виклики стають в центрі уваги

Нещодавно, Стамбулський тиждень блокчейну (IBW 2025) зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Протягом двох днів заходу кілька експертів галузі провели глибокі дискусії щодо поточного стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.

IBW 2025: Злиття AI та Web3, нові виклики безпеки під час зростання DeFAI

У дискусії "DeFAI" (децентралізоване штучне інтелектуальне фінансування) стало центральною темою. З швидким розвитком великих мовних моделей (LLM) та AI-агентів, DeFAI поступово стає новою фінансовою парадигмою. Однак ця інновація також приносить нові вектори атак та безпекові ризики.

Деякі керівники безпекових компаній зазначили: "DeFAI має великі перспективи, але ми повинні переосмислити механізми довіри в децентралізованих системах. На відміну від смарт-контрактів, що базуються на фіксованій логіці, процес ухвалення рішень AI-агентів підлягає впливу різноманітних факторів, що збільшує непередбачуваність і водночас створює можливості для атакуючих."

AI-агенти - це інтелектуальні системи, які можуть самостійно приймати рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай уповноважені на виконання користувачем, протоколом або DAO. Наразі більшість AI-агентів працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних загроз мережевих атак. Як тільки їх буде захоплено, це може призвести не лише до втрати коштів, але й вплинути на стабільність усього протоколу.

Експерти також обговорили типовий сценарій атаки: коли AI-торговий агент DeFi користувача моніторить інформацію в соціальних мережах як торгові сигнали, зловмисники можуть спонукати агента ініціювати термінове ліквідацію, публікуючи фальшиві тривоги. Це не лише призведе до втрати активів користувача, але й може викликати ринкову волатильність, яку зловмисники використовують для арбітражної торгівлі.

Щодо цих ризиків, учасники конференції одностайно визнали, що безпека AI-агентів має бути спільною відповідальністю користувачів, розробників та третіх сторін безпеки. Користувачі повинні обережно давати дозвіл і перевіряти високі ризикові операції AI-агентів; розробники повинні впроваджувати заходи безпеки на етапі проектування; треті сторони безпеки повинні забезпечити незалежний аудит AI-агентів та співпрацювати з усіма сторонами для виявлення ризиків і розробки заходів пом'якшення.

Експерт із безпеки попередив: "Якщо продовжувати вважати AI-агентів 'чорною скринькою', то нещасний випадок у реальному світі — лише питання часу." Він запропонував розробникам, які досліджують напрямок DeFAI: "Логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атаки, тому необхідно провести професійний аудит безпеки та тестування на проникнення."

Як одна з найвпливовіших блокчейн-подій Європи, IBW зібрала понад 15 000 учасників, включаючи розробників, проекти, інвесторів та регуляторів з усього світу. З початком офіційної видачі ліцензій на блокчейн-проекти Комісією з капітальних ринків Туреччини (CMB), індустріальний статус IBW отримав подальше підвищення.

IBW 2025:AI та Web3 злиття, нові виклики безпеки в умовах зростання DeFAI

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 2
  • Репост
  • Поділіться
Прокоментувати
0/400
BlockTalkvip
· 23год тому
Безпека завжди усвідомлюється пізно, ай.
Переглянути оригіналвідповісти на0
AirdropFatiguevip
· 23год тому
Тільки й знаєш, що займатися безпекою. Це зовсім не цікаво.
Переглянути оригіналвідповісти на0
  • Закріпити