مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أصبحت هدفاً لجذب الأموال في الأسواق الأولية والثانوية.
تظهر الفرص في صناعة الذكاء الاصطناعي من خلال Web3: استخدام الحوافز الموزعة لتنسيق العرض المحتمل في الذيل الطويل، عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نموذج مفتوح المصدر بالإضافة إلى سوق لامركزي لوكلاء الذكاء الاصطناعي.
تستخدم الذكاء الاصطناعي في صناعة Web3 بشكل رئيسي في التمويل على السلسلة ( المدفوعات المشفرة، التداول، تحليل البيانات ) والمساعدة في التطوير.
تظهر فائدة AI+Web3 في تكامل الاثنين: من المتوقع أن يتصدى Web3 لاحتكار AI، ومن المتوقع أن تساعد AI Web3 على كسر الحدود.
في العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع، هذه الظاهرة التي أثارها Chatgpt لم تفتح فقط عالماً جديداً من الذكاء الاصطناعي التوليدي، بل أثارت أيضاً تياراً قوياً في مجال Web3.
بدعم من مفهوم الذكاء الاصطناعي، كان هناك انتعاش ملحوظ في تمويل سوق العملات الرقمية، الذي شهد تباطؤًا. ووفقًا لإحصائيات وسائل الإعلام، تم تمويل 64 مشروعًا في مجال Web3+AI فقط في النصف الأول من عام 2024، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل قدره 100 مليون دولار في الجولة الأولى.
سوق المال الثانوية أكثر ازدهارًا، حيث تُظهر بيانات موقع Coingecko لتجميع العملات المشفرة أنه خلال أكثر من عام بقليل، وصل إجمالي قيمة سوق الذكاء الاصطناعي إلى 48.5 مليار دولار، بينما اقترب حجم التداول خلال 24 ساعة من 8.6 مليار دولار؛ الفوائد الناجمة عن التقدم الواضح في تقنيات الذكاء الاصطناعي كانت ملحوظة، حيث ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151% بعد إصدار نموذج Sora لتحويل النص إلى فيديو من OpenAI؛ كما أن تأثير الذكاء الاصطناعي امتد إلى أحد قطاعات جذب الأموال في العملات المشفرة، وهو Meme: حيث حقق مفهوم MemeCoin GOAT كأول وكيل ذكاء اصطناعي نجاحًا سريعًا وحصل على تقييم قدره 1.4 مليار دولار، مما أثار ضجة كبيرة في مجال Meme الذكاء الاصطناعي.
أصبح البحث والمواضيع المتعلقة بـ AI+Web3 شديدة الحماسة، من AI+Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO غير قادرة على مواكبة سرعة تغيير السرد الجديد.
AI+Web3، هذا التركيب من المصطلحات المليئة بالمال الساخن، والفرص، والأحلام المستقبلية، لا مفر من أن يُنظر إليه على أنه زواج مرتبة من قبل رأس المال، يبدو أنه من الصعب علينا أن نميز تحت هذا الرداء الرائع، هل هو ساحة المضاربين، أم هو ليلة الانفجار الفجرية؟
للإجابة على هذا السؤال، فإن تفكيرًا محوريًا بالنسبة للطرفين هو: هل سيكون وجود الآخر أفضل؟ هل يمكن الاستفادة من نمط الآخر؟ في هذه المقالة، نحاول أيضًا أن نستند إلى إنجازات السابقين لفحص هذا النمط: كيف يمكن لـ Web3 أن تلعب دورًا في مختلف مراحل تقنية الذكاء الاصطناعي، وما الذي يمكن أن يضيفه الذكاء الاصطناعي لـ Web3 من حيوية جديدة؟
الجزء 1 ما هي الفرص في Web3 تحت كومة الذكاء الاصطناعي؟
قبل مناقشة هذا الموضوع، نحتاج إلى فهم تكنولوجيا نموذج الذكاء الاصطناعي الكبير:
للتعبير عن العملية بأكثر بساطة: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كميات هائلة من المعلومات من العالم المحيط لفهم هذا العالم، وهذه هي مرحلة "جمع" البيانات؛ نظرًا لأن الكمبيوتر لا يمتلك حواس مثل الرؤية والسمع، يجب تحويل المعلومات الضخمة غير المصنفة من العالم الخارجي إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه من خلال "المعالجة المسبقة" قبل التدريب.
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره كعملية فهم وتعلم تدريجية للطفل عن العالم الخارجي، حيث تعتبر معلمات النموذج مثل قدرات الطفل اللغوية التي تتعدل باستمرار خلال عملية التعلم. عندما يبدأ المحتوى التعليمي في التخصص، أو يتم التواصل مع الآخرين للحصول على ملاحظات وتصحيحات، فإن ذلك يدخل في مرحلة "الضبط الدقيق" للنموذج الكبير.
بعد أن يكبر الأطفال ويتعلموا الكلام، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة، وتعتبر هذه المرحلة مشابهة لـ "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث تستطيع النماذج توقع وتحليل إدخالات اللغة والنصوص الجديدة. يعبر الرضع عن مشاعرهم من خلال القدرة اللغوية، ويصفون الأشياء ويحلون المشكلات المختلفة، وهذا يشبه أيضًا كيفية استخدام نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال بعد إكمال التدريب، في تنفيذ مجموعة متنوعة من المهام المحددة، مثل تصنيف الصور والتعرف على الصوت.
بينما يقترب وكيل الذكاء الاصطناعي من الشكل التالي للنموذج الكبير - القدرة على تنفيذ المهام بشكل مستقل والسعي لتحقيق أهداف معقدة، ليس فقط لديه القدرة على التفكير، بل يمكنه أيضًا التذكر والتخطيط، ويمكنه استخدام الأدوات للتفاعل مع العالم.
حاليًا، وبالنظر إلى نقاط الألم المختلفة للذكاء الاصطناعي في مختلف الطبقات، فإن Web3 قد شكلت حاليًا نظامًا بيئيًا متعدد المستويات ومترابطًا، يغطي جميع مراحل عملية نموذج الذكاء الاصطناعي.
واحد، الطبقة الأساسية: قوة الحوسبة وبيانات Airbnb
قوة التعدين
في الوقت الحالي، واحدة من أعلى تكاليف الذكاء الاصطناعي هي القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج واستنتاج النماذج.
مثال على ذلك هو أن LLAMA3 من Meta يحتاج إلى 16000 وحدة معالجة رسومات H100GPU( التي تنتجها NVIDIA، وهي وحدة معالجة رسومات رائدة مصممة خصيصًا لعمليات الذكاء الاصطناعي وأعباء العمل عالية الأداء. يستغرق تدريبها 30 يومًا. سعر النسخة 80GB يتراوح بين 30,000 إلى 40,000 دولار أمريكي، مما يتطلب استثماراً في الأجهزة الحاسوبية يتراوح بين 4-7 مليارات دولار)GPU+شريحة الشبكة(، وفي الوقت نفسه، يتطلب التدريب الشهري استهلاك 1.6 مليار كيلووات ساعة، وتصل نفقات الطاقة الشهرية إلى حوالي 20 مليون دولار أمريكي.
بالنسبة لفك الضغط عن قوة الحوسبة للذكاء الاصطناعي، فإنها بالفعل واحدة من أولى المجالات التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin) الشبكة اللامركزية للبنية التحتية الفيزيائية( حاليًا، يُظهر موقع بيانات DePin Ninja أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة الحوسبة GPU تشمل io.net، Aethir، Akash، Render Network وغيرها.
تتمثل المنطق الرئيسي في: المنصة تسمح للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستغلة بالمساهمة في قدرتهم الحاسوبية بطريقة لامركزية بدون إذن، من خلال سوق عبر الإنترنت للمشترين والبائعين مشابه لـ Uber أو Airbnb، مما يزيد من استخدام موارد GPU غير المستغلة بشكل كاف، وبالتالي يحصل المستخدمون النهائيون على موارد حاسوبية عالية الكفاءة بتكلفة أقل؛ في الوقت نفسه، تضمن آلية الرهان أنه في حالة حدوث انتهاكات لآلية مراقبة الجودة أو انقطاع الشبكة، سيكون لدى مقدمي الموارد العقوبات المناسبة.
تتميز بما يلي:
تجميع موارد GPU غير المستخدمة: الموردون هم بشكل أساسي من مراكز البيانات المستقلة والمتوسطة والصغيرة الأطراف الثالثة، والموارد الزائدة لمشغلي مناجم التشفير، والأجهزة المستخدمة في التعدين بنظام PoS، مثل أجهزة تعدين FileCoin وETH. حاليًا، هناك مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم MacBook وiPhone وiPad لإنشاء شبكة حسابية لتشغيل استدلال النماذج الكبيرة.
مواجهة سوق الطول الطويل لقدرات الذكاء الاصطناعي:
أ. من حيث الجانب التقني، فإن سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها مجموعات GPU الكبيرة جداً، بينما يكون استدلال GPU أقل نسبياً في الأداء، مثل Aethir التي تركز على أعمال العرض ذات الكمون المنخفض وتطبيقات استدلال الذكاء الاصطناعي.
ب. من حيث الطلب، لن يقوم طلبة قوة الحوسبة المتوسطة والصغيرة بتدريب نماذج كبيرة خاصة بهم بشكل منفصل، بل سيختارون فقط تحسين وتعديل نماذج كبيرة قليلة، وهذه السيناريوهات تناسب بشكل طبيعي موارد قوة الحوسبة الموزعة غير المستخدمة.
ملكية لامركزية: المعنى التكنولوجي للبلوك تشين هو أن مالكي الموارد يحتفظون دائمًا بالسيطرة على مواردهم، مع القدرة على التكيف وفقًا للاحتياجات، وفي الوقت نفسه تحقيق الأرباح.
البيانات
البيانات هي الأساس للذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحساب سيكون بلا فائدة مثل قش في الماء، وعلاقة البيانات بالنموذج تشبه المثل الشائع "القمامة في، القمامة خارج"، حيث تحدد كمية البيانات وجودة المدخلات جودة مخرجات النموذج النهائي. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات القدرة اللغوية للنموذج، والقدرة على الفهم، وحتى القيم الإنسانية وأسلوب التفاعل البشري. في الوقت الحالي، تركز صعوبات طلب البيانات في الذكاء الاصطناعي بشكل رئيسي على أربعة مجالات:
جوع البيانات: يعتمد تدريب نماذج الذكاء الاصطناعي على كميات كبيرة من بيانات الإدخال. تُظهر البيانات العامة أن OpenAI قد وصلت إلى تريليونات من المعلمات في تدريب GPT-4.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، فإن توقيت البيانات، تنوع البيانات، احترافية البيانات العمودية، وظهور مصادر بيانات جديدة مثل إدخال مشاعر وسائل التواصل الاجتماعي قد فرضت متطلبات جديدة على جودتها.
مسائل الخصوصية والامتثال: بدأت الدول والشركات تدريجياً في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم بفرض قيود على جمع البيانات.
تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تشير المعلومات العامة إلى أن أكثر من 30% من تكلفة تطوير شركات الذكاء الاصطناعي تُخصص لجمع البيانات الأساسية ومعالجتها.
تظهر حلول الويب 3 حالياً في أربعة جوانب هي:
1、جمع البيانات: البيانات الحقيقية التي يمكن الحصول عليها مجانًا تتناقص بسرعة، وتزداد نفقات الشركات العاملة في مجال الذكاء الاصطناعي سنويًا. ولكن في الوقت نفسه، لم تعود هذه النفقات بالفائدة على المساهمين الحقيقيين في البيانات، حيث استمتع المنصات بالكامل بقيمة الإبداع الناتجة عن البيانات، مثلما حققت إحدى المنصات إيرادات إجمالية قدرها 203 مليون دولار من خلال اتفاقيات ترخيص البيانات مع شركات الذكاء الاصطناعي.
إن إشراك المستخدمين الذين يساهمون بفعالية في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة بتكاليف منخفضة من خلال الشبكة الموزعة وآليات التحفيز، هو رؤية Web3.
Grass هو طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلالها تشغيل عقد Grass، والمساهمة في عرض النطاق الترددي المتاح ونقل البيانات لالتقاط البيانات الحية من الإنترنت بأكمله، والحصول على مكافآت رمزية؛
قامت Vana بإدخال مفهوم فريد من نوعه لحوض سيولة البيانات )DLP(، حيث يمكن للمستخدمين رفع بياناتهم الشخصية ) مثل سجلات الشراء، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، وغيرها ( إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لأطراف ثالثة معينة؛
في PublicAI، يمكن للمستخدمين استخدام )Web3 كعلامة تصنيف على منصات التواصل الاجتماعي و@PublicAI لجمع البيانات.
معالجة البيانات: في عملية معالجة بيانات الذكاء الاصطناعي، نظرًا لأن البيانات التي تم جمعها عادة ما تكون مشوشة وتحتوي على أخطاء، يجب تنظيفها وتحويلها إلى تنسيق قابل للاستخدام قبل تدريب النموذج، ويتضمن ذلك مهام متكررة مثل التطبيع، والترشيح، ومعالجة القيم المفقودة. هذه المرحلة هي واحدة من القلائل التي تتطلب تدخلًا بشريًا في صناعة الذكاء الاصطناعي، وقد نشأت منها مهنة مُعلّم البيانات. مع زيادة متطلبات جودة البيانات من النماذج، تزداد أيضًا متطلبات دخول مُعلّمي البيانات، وهذه المهمة تناسب بشكل طبيعي آلية التحفيز اللامركزية في Web3.
حاليا، تفكر Grass و OpenLayer في إضافة هذا العنصر الأساسي وهو وضع العلامات على البيانات.
قدمت Synesis مفهوم "Train2earn"، مع التركيز على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موسومة، أو تعليقات، أو أشكال أخرى من المدخلات.
مشروع تصنيف البيانات Sapien يقوم بتحويل مهام التمييز إلى لعبة، ويسمح للمستخدمين بربط النقاط لكسب المزيد من النقاط.
3، خصوصية البيانات والأمان: من الضروري توضيح أن خصوصية البيانات والأمان هما مفهومين مختلفين. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي الأمان بيانات المعلومات من الوصول غير المصرح به، والتدمير، والسرقة. وبالتالي، تتمثل مزايا تقنيات خصوصية Web3 والسيناريوهات المحتملة لتطبيقها في جانبين: #AI或#1( تدريب البيانات الحساسة؛ )2( التعاون في البيانات: يمكن لعدة مالكي بيانات المشاركة معًا في تدريب الذكاء الاصطناعي دون الحاجة إلى مشاركة بياناتهم الأصلية.
تشمل تقنيات الخصوصية الشائعة حاليًا في Web3 ما يلي:
بيئة التنفيذ الموثوقة ) TEE (، مثل بروتوكول سوبر؛
تشفير متماثل كامل ) FHE (، على سبيل المثال BasedAI، Fhenix.io أو Inco Network؛
تقنية المعرفة الصفرية ) zk (، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بشكل آمن، دون الكشف عن معلومات حساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، وأغلب المشاريع لا تزال في مرحلة الاستكشاف، وأحد المآزق الحالية هو ارتفاع تكاليف الحوسبة، ومن الأمثلة على ذلك:
إطار zkML EZKL يحتاج إلى حوالي 80 دقيقة لإنشاء إثبات لنموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs ، فإن تكلفة zkML تزيد عن 1000 مرة مقارنة بالحسابات البسيطة.
تخزين البيانات: بعد الحصول على البيانات، نحتاج أيضًا إلى مكان لتخزين البيانات على السلسلة، بالإضافة إلى LLM الناتج عن استخدام هذه البيانات. مع توافر البيانات )DA( كقضية مركزية، قبل ترقية Danksharding في الإيثيريوم، كانت سعة النقل 0.08 ميغابايت. وفي الوقت نفسه، يتطلب تدريب نماذج الذكاء الاصطناعي والاستدلال في الوقت الحقيقي عادةً سعة نقل للبيانات تتراوح بين 50 إلى 100 جيجابايت في الثانية. هذا الفارق في الحجم يجعل السلاسل الحالية غير كافية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تقاطع الذكاء الاصطناعي وWeb3: من قوة الحوسبة المشتركة إلى فرص جديدة للتحفيز على البيانات
الذكاء الاصطناعي + الويب 3: الأبراج والساحات
ليرة تركية ؛ د
مشاريع Web3 ذات مفهوم الذكاء الاصطناعي أصبحت هدفاً لجذب الأموال في الأسواق الأولية والثانوية.
تظهر الفرص في صناعة الذكاء الاصطناعي من خلال Web3: استخدام الحوافز الموزعة لتنسيق العرض المحتمل في الذيل الطويل، عبر البيانات والتخزين والحوسبة؛ في الوقت نفسه، إنشاء نموذج مفتوح المصدر بالإضافة إلى سوق لامركزي لوكلاء الذكاء الاصطناعي.
تستخدم الذكاء الاصطناعي في صناعة Web3 بشكل رئيسي في التمويل على السلسلة ( المدفوعات المشفرة، التداول، تحليل البيانات ) والمساعدة في التطوير.
تظهر فائدة AI+Web3 في تكامل الاثنين: من المتوقع أن يتصدى Web3 لاحتكار AI، ومن المتوقع أن تساعد AI Web3 على كسر الحدود.
! الذكاء الاصطناعي+Web3: الأبراج والساحات
المقدمة
في العامين الماضيين، تطور الذكاء الاصطناعي كما لو تم الضغط على زر التسريع، هذه الظاهرة التي أثارها Chatgpt لم تفتح فقط عالماً جديداً من الذكاء الاصطناعي التوليدي، بل أثارت أيضاً تياراً قوياً في مجال Web3.
بدعم من مفهوم الذكاء الاصطناعي، كان هناك انتعاش ملحوظ في تمويل سوق العملات الرقمية، الذي شهد تباطؤًا. ووفقًا لإحصائيات وسائل الإعلام، تم تمويل 64 مشروعًا في مجال Web3+AI فقط في النصف الأول من عام 2024، حيث حقق نظام التشغيل القائم على الذكاء الاصطناعي Zyber365 أعلى مبلغ تمويل قدره 100 مليون دولار في الجولة الأولى.
سوق المال الثانوية أكثر ازدهارًا، حيث تُظهر بيانات موقع Coingecko لتجميع العملات المشفرة أنه خلال أكثر من عام بقليل، وصل إجمالي قيمة سوق الذكاء الاصطناعي إلى 48.5 مليار دولار، بينما اقترب حجم التداول خلال 24 ساعة من 8.6 مليار دولار؛ الفوائد الناجمة عن التقدم الواضح في تقنيات الذكاء الاصطناعي كانت ملحوظة، حيث ارتفع متوسط سعر قطاع الذكاء الاصطناعي بنسبة 151% بعد إصدار نموذج Sora لتحويل النص إلى فيديو من OpenAI؛ كما أن تأثير الذكاء الاصطناعي امتد إلى أحد قطاعات جذب الأموال في العملات المشفرة، وهو Meme: حيث حقق مفهوم MemeCoin GOAT كأول وكيل ذكاء اصطناعي نجاحًا سريعًا وحصل على تقييم قدره 1.4 مليار دولار، مما أثار ضجة كبيرة في مجال Meme الذكاء الاصطناعي.
أصبح البحث والمواضيع المتعلقة بـ AI+Web3 شديدة الحماسة، من AI+Depin إلى AI Memecoin وصولاً إلى AI Agent و AI DAO الحالية، أصبحت مشاعر FOMO غير قادرة على مواكبة سرعة تغيير السرد الجديد.
AI+Web3، هذا التركيب من المصطلحات المليئة بالمال الساخن، والفرص، والأحلام المستقبلية، لا مفر من أن يُنظر إليه على أنه زواج مرتبة من قبل رأس المال، يبدو أنه من الصعب علينا أن نميز تحت هذا الرداء الرائع، هل هو ساحة المضاربين، أم هو ليلة الانفجار الفجرية؟
للإجابة على هذا السؤال، فإن تفكيرًا محوريًا بالنسبة للطرفين هو: هل سيكون وجود الآخر أفضل؟ هل يمكن الاستفادة من نمط الآخر؟ في هذه المقالة، نحاول أيضًا أن نستند إلى إنجازات السابقين لفحص هذا النمط: كيف يمكن لـ Web3 أن تلعب دورًا في مختلف مراحل تقنية الذكاء الاصطناعي، وما الذي يمكن أن يضيفه الذكاء الاصطناعي لـ Web3 من حيوية جديدة؟
الجزء 1 ما هي الفرص في Web3 تحت كومة الذكاء الاصطناعي؟
قبل مناقشة هذا الموضوع، نحتاج إلى فهم تكنولوجيا نموذج الذكاء الاصطناعي الكبير:
! الذكاء الاصطناعي+Web3: الأبراج والمربعات
للتعبير عن العملية بأكثر بساطة: "النموذج الكبير" يشبه دماغ الإنسان، في المراحل المبكرة، ينتمي هذا الدماغ إلى طفل حديث الولادة، يحتاج إلى مراقبة واستيعاب كميات هائلة من المعلومات من العالم المحيط لفهم هذا العالم، وهذه هي مرحلة "جمع" البيانات؛ نظرًا لأن الكمبيوتر لا يمتلك حواس مثل الرؤية والسمع، يجب تحويل المعلومات الضخمة غير المصنفة من العالم الخارجي إلى تنسيق معلومات يمكن للكمبيوتر فهمه واستخدامه من خلال "المعالجة المسبقة" قبل التدريب.
بعد إدخال البيانات، يقوم الذكاء الاصطناعي من خلال "التدريب" ببناء نموذج يمتلك القدرة على الفهم والتنبؤ، ويمكن اعتباره كعملية فهم وتعلم تدريجية للطفل عن العالم الخارجي، حيث تعتبر معلمات النموذج مثل قدرات الطفل اللغوية التي تتعدل باستمرار خلال عملية التعلم. عندما يبدأ المحتوى التعليمي في التخصص، أو يتم التواصل مع الآخرين للحصول على ملاحظات وتصحيحات، فإن ذلك يدخل في مرحلة "الضبط الدقيق" للنموذج الكبير.
بعد أن يكبر الأطفال ويتعلموا الكلام، يمكنهم فهم المعاني والتعبير عن مشاعرهم وأفكارهم في محادثات جديدة، وتعتبر هذه المرحلة مشابهة لـ "الاستدلال" في نماذج الذكاء الاصطناعي الكبيرة، حيث تستطيع النماذج توقع وتحليل إدخالات اللغة والنصوص الجديدة. يعبر الرضع عن مشاعرهم من خلال القدرة اللغوية، ويصفون الأشياء ويحلون المشكلات المختلفة، وهذا يشبه أيضًا كيفية استخدام نماذج الذكاء الاصطناعي الكبيرة في مرحلة الاستدلال بعد إكمال التدريب، في تنفيذ مجموعة متنوعة من المهام المحددة، مثل تصنيف الصور والتعرف على الصوت.
بينما يقترب وكيل الذكاء الاصطناعي من الشكل التالي للنموذج الكبير - القدرة على تنفيذ المهام بشكل مستقل والسعي لتحقيق أهداف معقدة، ليس فقط لديه القدرة على التفكير، بل يمكنه أيضًا التذكر والتخطيط، ويمكنه استخدام الأدوات للتفاعل مع العالم.
حاليًا، وبالنظر إلى نقاط الألم المختلفة للذكاء الاصطناعي في مختلف الطبقات، فإن Web3 قد شكلت حاليًا نظامًا بيئيًا متعدد المستويات ومترابطًا، يغطي جميع مراحل عملية نموذج الذكاء الاصطناعي.
واحد، الطبقة الأساسية: قوة الحوسبة وبيانات Airbnb
قوة التعدين
في الوقت الحالي، واحدة من أعلى تكاليف الذكاء الاصطناعي هي القدرة الحاسوبية والطاقة المطلوبة لتدريب النماذج واستنتاج النماذج.
مثال على ذلك هو أن LLAMA3 من Meta يحتاج إلى 16000 وحدة معالجة رسومات H100GPU( التي تنتجها NVIDIA، وهي وحدة معالجة رسومات رائدة مصممة خصيصًا لعمليات الذكاء الاصطناعي وأعباء العمل عالية الأداء. يستغرق تدريبها 30 يومًا. سعر النسخة 80GB يتراوح بين 30,000 إلى 40,000 دولار أمريكي، مما يتطلب استثماراً في الأجهزة الحاسوبية يتراوح بين 4-7 مليارات دولار)GPU+شريحة الشبكة(، وفي الوقت نفسه، يتطلب التدريب الشهري استهلاك 1.6 مليار كيلووات ساعة، وتصل نفقات الطاقة الشهرية إلى حوالي 20 مليون دولار أمريكي.
بالنسبة لفك الضغط عن قوة الحوسبة للذكاء الاصطناعي، فإنها بالفعل واحدة من أولى المجالات التي تتقاطع فيها Web3 مع الذكاء الاصطناعي - DePin) الشبكة اللامركزية للبنية التحتية الفيزيائية( حاليًا، يُظهر موقع بيانات DePin Ninja أكثر من 1400 مشروع، ومن بين المشاريع الرائدة في مشاركة قوة الحوسبة GPU تشمل io.net، Aethir، Akash، Render Network وغيرها.
تتمثل المنطق الرئيسي في: المنصة تسمح للأفراد أو الكيانات الذين يمتلكون موارد GPU غير المستغلة بالمساهمة في قدرتهم الحاسوبية بطريقة لامركزية بدون إذن، من خلال سوق عبر الإنترنت للمشترين والبائعين مشابه لـ Uber أو Airbnb، مما يزيد من استخدام موارد GPU غير المستغلة بشكل كاف، وبالتالي يحصل المستخدمون النهائيون على موارد حاسوبية عالية الكفاءة بتكلفة أقل؛ في الوقت نفسه، تضمن آلية الرهان أنه في حالة حدوث انتهاكات لآلية مراقبة الجودة أو انقطاع الشبكة، سيكون لدى مقدمي الموارد العقوبات المناسبة.
تتميز بما يلي:
تجميع موارد GPU غير المستخدمة: الموردون هم بشكل أساسي من مراكز البيانات المستقلة والمتوسطة والصغيرة الأطراف الثالثة، والموارد الزائدة لمشغلي مناجم التشفير، والأجهزة المستخدمة في التعدين بنظام PoS، مثل أجهزة تعدين FileCoin وETH. حاليًا، هناك مشاريع تهدف إلى بدء تشغيل أجهزة ذات عتبة دخول أقل، مثل exolab التي تستخدم MacBook وiPhone وiPad لإنشاء شبكة حسابية لتشغيل استدلال النماذج الكبيرة.
مواجهة سوق الطول الطويل لقدرات الذكاء الاصطناعي:
أ. من حيث الجانب التقني، فإن سوق القوة الحاسوبية اللامركزية أكثر ملاءمة لخطوات الاستدلال. يعتمد التدريب بشكل أكبر على قدرة معالجة البيانات التي توفرها مجموعات GPU الكبيرة جداً، بينما يكون استدلال GPU أقل نسبياً في الأداء، مثل Aethir التي تركز على أعمال العرض ذات الكمون المنخفض وتطبيقات استدلال الذكاء الاصطناعي.
ب. من حيث الطلب، لن يقوم طلبة قوة الحوسبة المتوسطة والصغيرة بتدريب نماذج كبيرة خاصة بهم بشكل منفصل، بل سيختارون فقط تحسين وتعديل نماذج كبيرة قليلة، وهذه السيناريوهات تناسب بشكل طبيعي موارد قوة الحوسبة الموزعة غير المستخدمة.
البيانات
البيانات هي الأساس للذكاء الاصطناعي. إذا لم تكن هناك بيانات، فإن الحساب سيكون بلا فائدة مثل قش في الماء، وعلاقة البيانات بالنموذج تشبه المثل الشائع "القمامة في، القمامة خارج"، حيث تحدد كمية البيانات وجودة المدخلات جودة مخرجات النموذج النهائي. بالنسبة لتدريب النماذج الحالية للذكاء الاصطناعي، تحدد البيانات القدرة اللغوية للنموذج، والقدرة على الفهم، وحتى القيم الإنسانية وأسلوب التفاعل البشري. في الوقت الحالي، تركز صعوبات طلب البيانات في الذكاء الاصطناعي بشكل رئيسي على أربعة مجالات:
جوع البيانات: يعتمد تدريب نماذج الذكاء الاصطناعي على كميات كبيرة من بيانات الإدخال. تُظهر البيانات العامة أن OpenAI قد وصلت إلى تريليونات من المعلمات في تدريب GPT-4.
جودة البيانات: مع دمج الذكاء الاصطناعي مع مختلف الصناعات، فإن توقيت البيانات، تنوع البيانات، احترافية البيانات العمودية، وظهور مصادر بيانات جديدة مثل إدخال مشاعر وسائل التواصل الاجتماعي قد فرضت متطلبات جديدة على جودتها.
مسائل الخصوصية والامتثال: بدأت الدول والشركات تدريجياً في إدراك أهمية مجموعات البيانات عالية الجودة، وتقوم بفرض قيود على جمع البيانات.
تكلفة معالجة البيانات مرتفعة: حجم البيانات كبير، وعملية المعالجة معقدة. تشير المعلومات العامة إلى أن أكثر من 30% من تكلفة تطوير شركات الذكاء الاصطناعي تُخصص لجمع البيانات الأساسية ومعالجتها.
تظهر حلول الويب 3 حالياً في أربعة جوانب هي:
1、جمع البيانات: البيانات الحقيقية التي يمكن الحصول عليها مجانًا تتناقص بسرعة، وتزداد نفقات الشركات العاملة في مجال الذكاء الاصطناعي سنويًا. ولكن في الوقت نفسه، لم تعود هذه النفقات بالفائدة على المساهمين الحقيقيين في البيانات، حيث استمتع المنصات بالكامل بقيمة الإبداع الناتجة عن البيانات، مثلما حققت إحدى المنصات إيرادات إجمالية قدرها 203 مليون دولار من خلال اتفاقيات ترخيص البيانات مع شركات الذكاء الاصطناعي.
إن إشراك المستخدمين الذين يساهمون بفعالية في خلق القيمة الناتجة عن البيانات، وكذلك الحصول على بيانات أكثر خصوصية وقيمة بتكاليف منخفضة من خلال الشبكة الموزعة وآليات التحفيز، هو رؤية Web3.
Grass هو طبقة بيانات وشبكة لامركزية، يمكن للمستخدمين من خلالها تشغيل عقد Grass، والمساهمة في عرض النطاق الترددي المتاح ونقل البيانات لالتقاط البيانات الحية من الإنترنت بأكمله، والحصول على مكافآت رمزية؛
قامت Vana بإدخال مفهوم فريد من نوعه لحوض سيولة البيانات )DLP(، حيث يمكن للمستخدمين رفع بياناتهم الشخصية ) مثل سجلات الشراء، عادات التصفح، أنشطة وسائل التواصل الاجتماعي، وغيرها ( إلى DLP محدد، واختيار ما إذا كانوا يرغبون في منح إذن لاستخدام هذه البيانات لأطراف ثالثة معينة؛
في PublicAI، يمكن للمستخدمين استخدام )Web3 كعلامة تصنيف على منصات التواصل الاجتماعي و@PublicAI لجمع البيانات.
حاليا، تفكر Grass و OpenLayer في إضافة هذا العنصر الأساسي وهو وضع العلامات على البيانات.
قدمت Synesis مفهوم "Train2earn"، مع التركيز على جودة البيانات، حيث يمكن للمستخدمين الحصول على مكافآت من خلال تقديم بيانات موسومة، أو تعليقات، أو أشكال أخرى من المدخلات.
مشروع تصنيف البيانات Sapien يقوم بتحويل مهام التمييز إلى لعبة، ويسمح للمستخدمين بربط النقاط لكسب المزيد من النقاط.
3، خصوصية البيانات والأمان: من الضروري توضيح أن خصوصية البيانات والأمان هما مفهومين مختلفين. تتعلق خصوصية البيانات بمعالجة البيانات الحساسة، بينما يحمي الأمان بيانات المعلومات من الوصول غير المصرح به، والتدمير، والسرقة. وبالتالي، تتمثل مزايا تقنيات خصوصية Web3 والسيناريوهات المحتملة لتطبيقها في جانبين: #AI或#1( تدريب البيانات الحساسة؛ )2( التعاون في البيانات: يمكن لعدة مالكي بيانات المشاركة معًا في تدريب الذكاء الاصطناعي دون الحاجة إلى مشاركة بياناتهم الأصلية.
تشمل تقنيات الخصوصية الشائعة حاليًا في Web3 ما يلي:
بيئة التنفيذ الموثوقة ) TEE (، مثل بروتوكول سوبر؛
تشفير متماثل كامل ) FHE (، على سبيل المثال BasedAI، Fhenix.io أو Inco Network؛
تقنية المعرفة الصفرية ) zk (، مثل بروتوكول Reclaim الذي يستخدم تقنية zkTLS، يولد إثباتات المعرفة الصفرية لحركة مرور HTTPS، مما يسمح للمستخدمين باستيراد الأنشطة والسمعة وبيانات الهوية من مواقع خارجية بشكل آمن، دون الكشف عن معلومات حساسة.
ومع ذلك، لا يزال هذا المجال في مرحلة مبكرة، وأغلب المشاريع لا تزال في مرحلة الاستكشاف، وأحد المآزق الحالية هو ارتفاع تكاليف الحوسبة، ومن الأمثلة على ذلك:
إطار zkML EZKL يحتاج إلى حوالي 80 دقيقة لإنشاء إثبات لنموذج 1M-nanoGPT.
وفقًا لبيانات Modulus Labs ، فإن تكلفة zkML تزيد عن 1000 مرة مقارنة بالحسابات البسيطة.