投资风口还是泡沫?AI + Web3 赛道还有什么价值?

「AI + Web3」 叙事,是真正的技术融合,还是又一次概念包装?本文源自 TinTinLand 所着文章,由 Foresight News 整理及撰稿。 (前情提要:AI 赛道能否摆脱炒作污名?盘点三个拥抱加密货币的 AI Agent 项目 ) (背景补充:灰度报明牌:2025 首季最看好这 20 大加密货币,重点关注 DeFi、AI Agents、Solana 生态 ) 进入 2025 年,「AI + Web3」 叙事热度仍然未减。根据 Grayscale 2025 年 5 月释出的最新报告,AI Crypto 赛道的整体市值已达到 210 亿美元,相比 2023 年第一季度的 45 亿美元实现了近五倍增长。 这场浪潮背后,是真正的技术融合,还是又一次概念包装? 从宏观来看,传统 AI 生态已经显露出越来越多结构性问题:模型训练门槛高、资料隐私无保障、算力高度垄断、推理过程黑箱化、激励机制失衡…… 而这些痛点,恰恰与 Web3 的原生优势高度契合:去中心化、开放市场机制、链上可验证、使用者资料主权等。 AI + Web3 的结合并非只是叠加两个热门词,而是一次结构性的技术互补。让我们从当前 AI 面临的几大核心痛点出发,深入拆解那些在切实解决问题的 Web3 专案,带你看清 AI Crypto 赛道的价值与方向。 AI 服务访问门槛过高、成本昂贵 当前 AI 服务通常成本高昂,训练资源获取困难,对于中小企业和个人开发者而言门槛极高;此外,这些服务常常技术复杂,需要专业背景才能上手。AI 服务市场高度集中,使用者缺乏多样选择,呼叫成本不透明,预算难以预测,甚至面临算力垄断的问题。 Web3 的解决方案是通过去中心化的方式打破平台壁垒,构建开放的 GPU 市场和模型服务网路,支援灵活排程闲置资源,并通过链上任务排程和透明的经济机制,激励更多参与者贡献算力与模型,降低整体成本并提升服务的可访问性。 代表专案 Render Network:专注去中心化 GPU 渲染,也支援 AI 推理与训练,采用 「按使用付费」 模式,帮助开发者低成本接入影象生成和 AI 服务。 Gensyn:构建去中心化的深度学习训练网路,采用 Proof-of-Compute 机制验证训练结果,推动 AI 训练从平台集中制转向开放协作。 Akash Network:基于区块链技术的去中心化云端计算平台,开发者可按需租用 GPU 资源,用于部署和执行 AI 应用,是 「云端计算的去中心化版本」。 0G Labs:去中心化 AI 原生 Layer‑1,通过创新的储存和计算分离架构,极大降低了链上执行 AI 模型的成本和复杂度。 资料贡献者缺乏激励 高品质资料是 AI 模型的核心燃料,但传统模式下,资料贡献者很难获得回报。资料来源不透明、重复性强、使用方式缺乏回馈,使得资料生态长期低效运转。 Web3 提供了全新的解决正规化:通过加密签名、链上确权与可组合的经济机制,让资料贡献者、模型开发者和使用者之间形成清晰的协作和激励闭环。 代表专案 OpenLedger:创新提出 「Payable AI」 概念,将资料贡献、模型呼叫与经济激励结合,推动形成 AI 链上协作的资料经济网路。 Bittensor:采用以 TAO 奖励、Yuma 共识机制、子网精准激励、知识协作等为核心的一套完整激励体系,将资料贡献与模型执行成果直接挂钩,提升整体价值贡献。 Grass:AI 资料网路,通过外挂收集使用者浏览行为资料,贡献到链上搜索引擎训练中,使用者按资料品质获得奖励,打造社群驱动的资料共享机制。 模型黑箱化、AI 推理无法验证 当前主流 AI 模型的推理过程高度黑箱,使用者无法验证结果的正确性与可信度,尤其在金融、医疗等高风险领域更是问题突出。此外,模型可能遭受篡改、投毒等攻击,难以溯源或审计。 为此,Web3 专案正尝试引入零知识证明(ZK)、全同态加密(FHE)与可信执行环境(TEE),使模型推理过程具备可验证性、可审计性,提升 AI 系统的可解释性与信任基础。 代表专案 Sentient:通过创新的模型指纹识别技术确保呼叫行为可追踪,提升模型使用透明度和防篡改能力。 Modulus Labs:利用 ZK 技术对模型推理过程进行加密验证,实现 「可信 AI」 新正规化。 Giza:利用零知识密码学将机器学习推理计算上链,从而提高 AI 模型部署的透明度和信任度。 隐私和安全风险 AI 训练过程常涉及大量敏感资料,面临隐私泄露、模型被滥用或攻击、缺乏决策透明度等风险。同时,资料和模型的所有权界定模糊,进一步加剧安全隐患。 借助区块链的不可篡改性、加密计算技术(如 ZK、FHE)、可信执行环境等手段,保障 AI 系统的资料与模型在训练、储存和呼叫全流程中的安全性与可控性。 代表专案 Phala Network: 提供可信执行环境(TEE)支援,将关键计算封装于安全硬体中,防止资料泄露与模型被盗用。 ZAMA: 专注于全同态加密(FHE)技术,使模型训练和推理可以在加密状态下进行,实现 「用不到明文就能计算」。 Mind Network: 构建支援隐私保护的去中心化 AI 资料共享与推理平台,通过前端加密技术(如同态加密、零知识证明等)实现资料安全共享与隐私计算。 Vana:一个 AI 身份生成应用程式,旨在让使用者重新获得对自身资料的所有权和控制权,确保资料的隐私性和安全性。 AI 模型版权和智慧财产权纠纷 当前 AI 模型训练大量使用网际网路资料,但往往未经授权使用受版权保护的内容,导致法律纠纷频发。同时,AI 生成内容的版权归属不明确,原创者、模型开发者和使用者之间的权益分配缺乏透明机制。模型被恶意复制、盗用的情况也是屡见不鲜,智慧财产权保护困难。 Web3 通过链上确权机制,将模型的建立时间、训练资料来源、贡献者资讯等进行存证,并使用 NFT、智慧合约等工具标识模型或内容的版权归属。 代表专案 Story Protocol:...

查看原文
本页面内容仅供参考,非招揽或要约,也不提供投资、税务或法律咨询。详见声明了解更多风险披露。
  • 赞赏
  • 1
  • 分享
评论
0/400
只有努力vip
· 19小时前
坐稳扶好,马上起飞 🛫
回复0
交易,随时随地
qrCode
扫码下载 Gate APP
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)