AI kavramına sahip Web3 projeleri birinci ve ikinci piyasalarda yatırımcıların ilgisini çekiyor.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşvikler kullanmakta ortaya çıkmaktadır------veri, depolama ve hesaplama arasında; aynı zamanda, açık kaynaklı bir model ve AI Agent'ın merkeziyetsiz pazarını oluşturmak.
Web3 sektöründe AI'nın başlıca kullanım alanı zincir üzerinde finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında yatmaktadır: Web3, AI merkezileşmesine karşı koyma umudu taşırken, AI da Web3'ün sınırlarını aşmasına yardımcı olma umudunu taşımaktadır.
Giriş
Son iki yılda, AI'nin gelişimi sanki bir hızlandırma tuşuna basılmış gibi, Chatgpt'nin tetiklediği bu kelebek kanadı, sadece üretken yapay zeka için yeni bir dünya açmakla kalmadı, aynı zamanda karşı kıyıda Web3'te de büyük bir akıntı yarattı.
AI kavramının desteğiyle, yavaşlayan kripto piyasa finansmanında belirgin bir canlanma yaşanıyor. Medya istatistiklerine göre, yalnızca 2024'ün ilk yarısında, toplamda 64 Web3+AI projesi finansman tamamladı. Yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar en yüksek finansman miktarına ulaştı.
İkincil piyasa daha da canlı hale geldi, kripto birleşim sitelerinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48,5 milyar dolara ulaşırken, 24 saatlik işlem hacmi 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki ilerlemelerin getirdiği olumlu etkiler belirgin, bir şirketin Sora metin-vidyo modelinin yayınlanmasının ardından, AI alanındaki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yayıldı: ilk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerlemeye ulaştı, başardığıyla AI Meme akımını başlattı.
AI+Web3 üzerine yapılan araştırmalar ve tartışmalar da oldukça popüler; AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatım değişimlerinin hızına yetişemiyor.
AI+Web3, bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir sermaye tarafından düzenlenen bir evlilik olarak görmesine neden oluyor; bu şatafatlı elbisenin altında tam olarak spekülatörlerin mi sahne aldığı yoksa bir uyanışın eşiğinde mi olduğumuzu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığıyla daha iyi bir duruma geçilip geçilemeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, geçmişteki bilgilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığınındaki her aşamada nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni bir yaşam getirir?
Bölüm.1 AI yığınında Web3 için ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Daha anlaşılır bir dille süreci şöyle ifade edebiliriz: "Büyük model", insan beynine benzer. İlk aşamalarda, bu beyin henüz dünyaya yeni gelmiş bir bebeğe aittir ve bu dünya hakkında anlam kazanmak için çevresindeki devasa bilgi akışını gözlemleyip içselleştirmesi gerekir. Bu, verilerin "toplanması" aşamasıdır; bilgisayarlar insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitimden önce dışarıdaki büyük ölçekli, etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlayış ve tahmin yeteneğine sahip bir model oluşturur, bu da bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltme yaptığında, büyük modelin "ince ayar" aşamasına geçilmiş olur.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler dil becerileriyle duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözerler. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra belirli görevlerde, örneğin görüntü sınıflandırma, ses tanıma gibi işleri yerine getirdiği çıkarım aşamasına benzer.
AI Ajansı ise, bağımsız görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen büyük modellerin bir sonraki biçimine daha da yaklaşmaktadır. Sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya da sahip olup, araçları kullanarak dünyayla etkileşimde bulunabilmektedir.
Şu anda, AI'nın her türlü yığınındaki acı noktalarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmuş durumda.
Birinci Bölüm: Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hash gücü
Şu anda, AI'nin en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, bir şirketin LLAMA3'ün 30 gün içinde tamamlanması için 16.000 adet o şirket tarafından üretilen H100GPU'ya (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf grafik işlemci) ihtiyaç duymasıdır. 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar tutarında bir hesaplama donanımı yatırımı (GPU + ağ yongası) gerektirir. Ayrıca, aylık eğitim için 1,6 milyar kilowatt saat enerji tüketimi gerekmekte olup, enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile kesiştiği en erken alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgilidir. Şu anda, bir veri sitesinde 1400'den fazla proje sergileniyor, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden birçok proje bulunmaktadır.
Ana mantığı şudur: Platform, atıl GPU kaynaklarına sahip bireylerin veya kuruluşların izin gerektirmeden merkeziyetsiz bir şekilde hesaplama güçlerini katkıda bulunmalarına olanak tanır. Bu sayede, belirli bir şirketin veya o şirketin alıcıları ve satıcıları arasında çevrimiçi bir pazar oluşturularak, yeterince kullanılmayan GPU kaynaklarının kullanım oranı artırılır ve nihai kullanıcılar daha düşük maliyetlerle verimli hesaplama kaynakları elde eder. Aynı zamanda, staking mekanizması da kalite kontrol mekanizmasının ihlali veya ağın kesintiye uğraması durumunda kaynak sağlayıcılarının uygun bir şekilde cezalandırılmasını sağlar.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplayın: Sağlayıcılar, esas olarak üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik tesisleri gibi operatörlerin fazlalık hesaplama kaynaklarıdır ve konsensüs mekanizması PoS olan madencilik donanımlarıdır, örneğin bazı projelerin madencilik makineleri. Şu anda, belirli projeler daha düşük giriş engellerine sahip cihazlar başlatmaya da odaklanmaktadır; bazı projeler belirli cihazları kullanarak büyük model çıkarımı için bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknoloji açısından" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, daha çok büyük küme ölçeği GPU'ların sağladığı veri işleme kapasitesine dayanırken, çıkarım GPU hesaplama performansına göre daha düşük bir bağımlılığa sahiptir; bazı projeler düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesap gücü talep edenler, kendi büyük modellerini ayrı ayrı eğitmeyecek, yalnızca az sayıdaki önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir. Bu senaryolar, dağıtılmış atıl hesap gücü kaynakları için doğal olarak uygundur.
Merkeziyetsiz mülkiyet: Blok zincirinin teknolojik anlamı, kaynak sahiplerinin her zaman kaynaklar üzerindeki kontrolünü elinde tutması, talebe göre esnek bir şekilde ayarlama yapabilmesi ve aynı zamanda kazanç elde edebilmesidir.
Veri
Veri, AI'nin temelidir. Veri olmadan, hesaplama, su bitkileri gibi tamamen işe yaramaz hale gelir ve veriler ile modeller arasındaki ilişki, "Çöp girerse, çöp çıkar" deyişi gibidir; verinin miktarı ve girdi kalitesi nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani performansını belirler. Şu anda, AI'nin veri talebi sorunları esas olarak aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI model eğitimi, büyük veri girişi gerektirir. Kamuya açık verilere göre, bir şirketin belirli bir modeli eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI'nin farklı sektörlerle birleşmesiyle birlikte, verinin zamanlaması, veri çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygusal içeriğinin dahil edilmesi, kalitesi için yeni gereksinimler getirmiştir.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri setlerinin toplanmasına sınırlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Kamuya açık kaynaklar, AI şirketlerinin Ar-Ge maliyetlerinin %30'undan fazlasının temel veri toplama ve işleme için kullanıldığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Veri toplama: Ücretsiz olarak elde edilen gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veriler için yaptığı harcamalar yıllar içinde artıyor. Ancak bu harcamalar, verilerin gerçek katkı sağlayanlarına geri dönüş sağlamıyor; platformlar tamamen verilerin sağladığı değer yaratımından yararlanıyor, örneğin bir platform, AI şirketleriyle imzaladığı veri lisans anlaşmaları aracılığıyla toplamda 203 milyon dolar gelir elde etti.
Web3'ün vizyonu, gerçekten katkıda bulunan kullanıcıların verilerin yarattığı değer yaratımına katılmasını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamaktır.
Belirli bir proje, kullanıcıların düğüm çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, internetin tamamındaki gerçek zamanlı verileri yakalaması ve token ödülleri kazanması için bir merkeziyetsiz veri katmanı ve ağıdır;
Bazı projeler, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir Veri Akış Likidite Havuzuna (DLP) yükleyebileceği ve bu verileri belirli üçüncü tarafların kullanımına yetkilendirme esnekliği seçebileceği benzersiz bir DLP konsepti getirmiştir;
Belirli bir projede, kullanıcılar belirli etiketleri kullanarak ve @belirli bir hesabı etiketleyerek veri toplayabilir.
Veri Ön İşleme: AI'nın veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerebildiğinden, modelin eğitilmesinden önce bunların temizlenmesi ve kullanılabilir bir formata dönüştürülmesi gerekir. Bu aşama, standartlaştırma, filtreleme ve eksik değerlerle başa çıkma gibi tekrarlayan görevleri içerir. Bu aşama, AI sektöründeki az sayıdaki insan etkileşiminden biridir ve veri etiketleme uzmanlığı gibi bir endüstrinin ortaya çıkmasına neden olmuştur. Modellerin veri kalitesine olan talepleri arttıkça, veri etiketleme uzmanlarının gereksinimleri de artmıştır ve bu görev, doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
Şu anda, bazı projeler veri etiketleme bu kritik aşamayı eklemeyi düşünüyor.
Bir proje "Train2earn" kavramını sundu, veri kalitesine vurgu yaptı, kullanıcılar etiketlenmiş veri, açıklama veya başka formda girdi sağlayarak ödül kazanabilir.
Veri etiketleme projesinin bir kısmı, etiketleme görevlerini oyunlaştırmakta ve kullanıcılara daha fazla puan kazanmak için puanlarını kilitleme imkanı sunmaktadır.
Veri gizliliği ve güvenliği: Açıklığa kavuşturulması gereken, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesini içerirken, veri güvenliği ise veri bilgilerinin yetkisiz erişim, tahribat ve hırsızlığa karşı korunmasını sağlar. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama alanları iki yönüyle ortaya çıkmaktadır: (1) Hassas verilerin eğitimi; (2) Veri işbirliği: Birden fazla veri sahibi, ham verilerini paylaşmadan AI eğitimine ortak katılabilir.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir yürütme ortamı ( TEE ), örneğin bir proje;
Tam homomorfik şifreleme (FHE), örneğin bazı projeler;
Sıfır bilgi teknolojisi (zk), belirli bir projenin HTTPS trafiği için sıfır bilgi kanıtı üreten zkTLS teknolojisini kullanması, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamalarda, çoğu proje hala keşif aşamasında, mevcut bir sorun ise hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır:
Bir çerçevenin 1M-nanoGPT modelinin kanıtını üretmesi yaklaşık 80 dakika sürmektedir.
Bir şirketin verilerine göre, zkML'nin maliyeti saf hesaplamadan 1000 kat daha fazladır.
Veri depolama: Veriler elde edildikten sonra, bir yere ihtiyaç vardır.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
13 Likes
Reward
13
3
Share
Comment
0/400
GateUser-ccc36bc5
· 17h ago
Paranın benden daha hızlı kaçması
View OriginalReply0
airdrop_huntress
· 17h ago
Aynen öyle, Emiciler Tarafından Oyuna Getirilmek için yeni bir konu işte.
Yapay Zeka ve Web3'ün birleşimi: Yeni bir çağın veri, Bilgi İşlem Gücü ve yenilik düzenini başlatması
AI+Web3: Kuleler ve Meydanlar
Kısa Özet
AI kavramına sahip Web3 projeleri birinci ve ikinci piyasalarda yatırımcıların ilgisini çekiyor.
Web3'ün AI sektöründeki fırsatları, uzun kuyruktaki potansiyel arzı koordine etmek için dağıtık teşvikler kullanmakta ortaya çıkmaktadır------veri, depolama ve hesaplama arasında; aynı zamanda, açık kaynaklı bir model ve AI Agent'ın merkeziyetsiz pazarını oluşturmak.
Web3 sektöründe AI'nın başlıca kullanım alanı zincir üzerinde finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olmaktır.
AI+Web3'ün faydası, ikisinin tamamlayıcılığında yatmaktadır: Web3, AI merkezileşmesine karşı koyma umudu taşırken, AI da Web3'ün sınırlarını aşmasına yardımcı olma umudunu taşımaktadır.
Giriş
Son iki yılda, AI'nin gelişimi sanki bir hızlandırma tuşuna basılmış gibi, Chatgpt'nin tetiklediği bu kelebek kanadı, sadece üretken yapay zeka için yeni bir dünya açmakla kalmadı, aynı zamanda karşı kıyıda Web3'te de büyük bir akıntı yarattı.
AI kavramının desteğiyle, yavaşlayan kripto piyasa finansmanında belirgin bir canlanma yaşanıyor. Medya istatistiklerine göre, yalnızca 2024'ün ilk yarısında, toplamda 64 Web3+AI projesi finansman tamamladı. Yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar en yüksek finansman miktarına ulaştı.
İkincil piyasa daha da canlı hale geldi, kripto birleşim sitelerinin verilerine göre, sadece bir yıl içinde AI sektörünün toplam piyasa değeri 48,5 milyar dolara ulaşırken, 24 saatlik işlem hacmi 8,6 milyar dolara yaklaştı; ana akım AI teknolojilerindeki ilerlemelerin getirdiği olumlu etkiler belirgin, bir şirketin Sora metin-vidyo modelinin yayınlanmasının ardından, AI alanındaki ortalama fiyat %151 arttı; AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yayıldı: ilk AI Agent konsepti olan MemeCoin------GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerlemeye ulaştı, başardığıyla AI Meme akımını başlattı.
AI+Web3 üzerine yapılan araştırmalar ve tartışmalar da oldukça popüler; AI+Depin'den AI Memecoin'e, şu anki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatım değişimlerinin hızına yetişemiyor.
AI+Web3, bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak insanların bunu bir sermaye tarafından düzenlenen bir evlilik olarak görmesine neden oluyor; bu şatafatlı elbisenin altında tam olarak spekülatörlerin mi sahne aldığı yoksa bir uyanışın eşiğinde mi olduğumuzu ayırt etmekte zorlanıyoruz?
Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce, karşı tarafın varlığıyla daha iyi bir duruma geçilip geçilemeyeceğidir. Karşı tarafın modelinden fayda sağlanabilir mi? Bu yazıda, geçmişteki bilgilerin üzerine çıkarak bu yapıyı incelemeye çalışıyoruz: Web3, AI teknolojisi yığınındaki her aşamada nasıl bir rol oynayabilir ve AI, Web3'e ne gibi yeni bir yaşam getirir?
Bölüm.1 AI yığınında Web3 için ne fırsatlar var?
Bu konuyu açmadan önce, AI büyük modelinin teknik yığınını anlamamız gerekiyor:
Daha anlaşılır bir dille süreci şöyle ifade edebiliriz: "Büyük model", insan beynine benzer. İlk aşamalarda, bu beyin henüz dünyaya yeni gelmiş bir bebeğe aittir ve bu dünya hakkında anlam kazanmak için çevresindeki devasa bilgi akışını gözlemleyip içselleştirmesi gerekir. Bu, verilerin "toplanması" aşamasıdır; bilgisayarlar insanın görme, işitme gibi birçok duyusuna sahip olmadığından, eğitimden önce dışarıdaki büyük ölçekli, etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.
Veri girdikten sonra AI, "eğitim" yoluyla anlayış ve tahmin yeteneğine sahip bir model oluşturur, bu da bir bebeğin dış dünyayı anlamaya ve öğrenmeye başladığı süreç olarak düşünülebilir. Modelin parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenilen içerik branşlara ayrılmaya başladığında veya insanlarla iletişim kurarak geri bildirim alıp düzeltme yaptığında, büyük modelin "ince ayar" aşamasına geçilmiş olur.
Çocuklar büyüdükçe ve konuşmayı öğrendikçe, yeni diyaloglarda anlamı kavrayabilir ve kendi duygularını ve düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "çıkarım" aşamasına benzerdir; model, yeni dil ve metin girdilerine tahmin ve analiz yapabilir. Bebekler dil becerileriyle duygularını ifade eder, nesneleri tanımlar ve çeşitli sorunları çözerler. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra belirli görevlerde, örneğin görüntü sınıflandırma, ses tanıma gibi işleri yerine getirdiği çıkarım aşamasına benzer.
AI Ajansı ise, bağımsız görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen büyük modellerin bir sonraki biçimine daha da yaklaşmaktadır. Sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafızaya, planlamaya da sahip olup, araçları kullanarak dünyayla etkileşimde bulunabilmektedir.
Şu anda, AI'nın her türlü yığınındaki acı noktalarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmuş durumda.
Birinci Bölüm: Temel Katman: Hesaplama Gücü ve Verilerin Airbnb'si
Hash gücü
Şu anda, AI'nin en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.
Bir örnek, bir şirketin LLAMA3'ün 30 gün içinde tamamlanması için 16.000 adet o şirket tarafından üretilen H100GPU'ya (bu, yapay zeka ve yüksek performanslı hesaplama iş yükleri için tasarlanmış birinci sınıf grafik işlemci) ihtiyaç duymasıdır. 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar tutarında bir hesaplama donanımı yatırımı (GPU + ağ yongası) gerektirir. Ayrıca, aylık eğitim için 1,6 milyar kilowatt saat enerji tüketimi gerekmekte olup, enerji harcaması her ay yaklaşık 20 milyon dolardır.
AI hesaplama gücünün serbest bırakılması, Web3'ün AI ile kesiştiği en erken alanlardan biri olan DePin (merkeziyetsiz fiziksel altyapı ağı) ile ilgilidir. Şu anda, bir veri sitesinde 1400'den fazla proje sergileniyor, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden birçok proje bulunmaktadır.
Ana mantığı şudur: Platform, atıl GPU kaynaklarına sahip bireylerin veya kuruluşların izin gerektirmeden merkeziyetsiz bir şekilde hesaplama güçlerini katkıda bulunmalarına olanak tanır. Bu sayede, belirli bir şirketin veya o şirketin alıcıları ve satıcıları arasında çevrimiçi bir pazar oluşturularak, yeterince kullanılmayan GPU kaynaklarının kullanım oranı artırılır ve nihai kullanıcılar daha düşük maliyetlerle verimli hesaplama kaynakları elde eder. Aynı zamanda, staking mekanizması da kalite kontrol mekanizmasının ihlali veya ağın kesintiye uğraması durumunda kaynak sağlayıcılarının uygun bir şekilde cezalandırılmasını sağlar.
Özellikleri şunlardır:
Kullanılmayan GPU kaynaklarını toplayın: Sağlayıcılar, esas olarak üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik tesisleri gibi operatörlerin fazlalık hesaplama kaynaklarıdır ve konsensüs mekanizması PoS olan madencilik donanımlarıdır, örneğin bazı projelerin madencilik makineleri. Şu anda, belirli projeler daha düşük giriş engellerine sahip cihazlar başlatmaya da odaklanmaktadır; bazı projeler belirli cihazları kullanarak büyük model çıkarımı için bir hesaplama ağı kurmaktadır.
AI hesaplama gücünün uzun kuyruk pazarına karşı:
a. "Teknoloji açısından" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, daha çok büyük küme ölçeği GPU'ların sağladığı veri işleme kapasitesine dayanırken, çıkarım GPU hesaplama performansına göre daha düşük bir bağımlılığa sahiptir; bazı projeler düşük gecikmeli render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.
b. "Talep tarafında" küçük ve orta ölçekli hesap gücü talep edenler, kendi büyük modellerini ayrı ayrı eğitmeyecek, yalnızca az sayıdaki önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir. Bu senaryolar, dağıtılmış atıl hesap gücü kaynakları için doğal olarak uygundur.
Veri
Veri, AI'nin temelidir. Veri olmadan, hesaplama, su bitkileri gibi tamamen işe yaramaz hale gelir ve veriler ile modeller arasındaki ilişki, "Çöp girerse, çöp çıkar" deyişi gibidir; verinin miktarı ve girdi kalitesi nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani performansını belirler. Şu anda, AI'nin veri talebi sorunları esas olarak aşağıdaki dört alana odaklanmaktadır:
Veri açlığı: AI model eğitimi, büyük veri girişi gerektirir. Kamuya açık verilere göre, bir şirketin belirli bir modeli eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.
Veri kalitesi: AI'nin farklı sektörlerle birleşmesiyle birlikte, verinin zamanlaması, veri çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygusal içeriğinin dahil edilmesi, kalitesi için yeni gereksinimler getirmiştir.
Gizlilik ve uyum sorunları: Şu anda çeşitli ülkeler ve şirketler kaliteli veri setlerinin öneminin farkına varıyor ve veri setlerinin toplanmasına sınırlamalar getirmeye çalışıyor.
Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Kamuya açık kaynaklar, AI şirketlerinin Ar-Ge maliyetlerinin %30'undan fazlasının temel veri toplama ve işleme için kullanıldığını göstermektedir.
Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:
Web3'ün vizyonu, gerçekten katkıda bulunan kullanıcıların verilerin yarattığı değer yaratımına katılmasını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamaktır.
Belirli bir proje, kullanıcıların düğüm çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak, internetin tamamındaki gerçek zamanlı verileri yakalaması ve token ödülleri kazanması için bir merkeziyetsiz veri katmanı ve ağıdır;
Bazı projeler, kullanıcıların özel verilerini (alışveriş kayıtları, tarayıcı alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir Veri Akış Likidite Havuzuna (DLP) yükleyebileceği ve bu verileri belirli üçüncü tarafların kullanımına yetkilendirme esnekliği seçebileceği benzersiz bir DLP konsepti getirmiştir;
Belirli bir projede, kullanıcılar belirli etiketleri kullanarak ve @belirli bir hesabı etiketleyerek veri toplayabilir.
Şu anda, bazı projeler veri etiketleme bu kritik aşamayı eklemeyi düşünüyor.
Bir proje "Train2earn" kavramını sundu, veri kalitesine vurgu yaptı, kullanıcılar etiketlenmiş veri, açıklama veya başka formda girdi sağlayarak ödül kazanabilir.
Veri etiketleme projesinin bir kısmı, etiketleme görevlerini oyunlaştırmakta ve kullanıcılara daha fazla puan kazanmak için puanlarını kilitleme imkanı sunmaktadır.
Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:
Güvenilir yürütme ortamı ( TEE ), örneğin bir proje;
Tam homomorfik şifreleme (FHE), örneğin bazı projeler;
Sıfır bilgi teknolojisi (zk), belirli bir projenin HTTPS trafiği için sıfır bilgi kanıtı üreten zkTLS teknolojisini kullanması, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.
Ancak, şu anda bu alan hala erken aşamalarda, çoğu proje hala keşif aşamasında, mevcut bir sorun ise hesaplama maliyetlerinin çok yüksek olması, bazı örnekler şunlardır:
Bir çerçevenin 1M-nanoGPT modelinin kanıtını üretmesi yaklaşık 80 dakika sürmektedir.
Bir şirketin verilerine göre, zkML'nin maliyeti saf hesaplamadan 1000 kat daha fazladır.