AI+Web3 iş birliği: Verilerin ve Bilgi İşlem Gücü yeni düzenini açma

AI+Web3: Kuleler ve Meydanlar

Önemli Noktalar

  1. AI konseptli Web3 projeleri birinci ve ikinci piyasalarda yatırım çekme hedefi haline geldi.

  2. Web3'ün AI endüstrisindeki fırsatları, veri, depolama ve hesaplama ile ilgili uzun kuyruktaki potansiyel arzı koordine etmek için dağıtılmış teşviklerin kullanılması; aynı zamanda açık kaynaklı modellerin ve AI Ajanı'nın merkeziyetsiz pazarının oluşturulmasında kendini gösterir.

  3. AI, Web3 sektöründe esas olarak zincir üzeri finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeye yardımcı olmak için kullanılmaktadır.

  4. AI+Web3'ün faydası, her ikisinin tamamlayıcılığında ortaya çıkmaktadır: Web3, AI merkeziyetçiliğiyle mücadele etme umudunu taşırken, AI da Web3'ün sınırlarını aşmasına yardımcı olma umudunu taşımaktadır.

AI+Web3: Kuleler ve Meydanlar

Giriş

Son iki yılda, AI gelişimi hızlanma eğilimi gösterdi. Chatgpt tarafından tetiklenen üretken yapay zeka dalgası, Web3 alanında da büyük bir etki yarattı.

AI konseptinin etkisiyle, kripto pazarındaki finansman belirgin bir şekilde arttı. 2024 yılının ilk yarısında, 64 Web3+AI projesinin finansmanı tamamlandı. Ayrıca, yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar ile en yüksek finansman miktarına ulaştı.

İkincil piyasa daha da hareketleniyor, kripto agregat sitesi Coingecko'nun verileri, sadece bir yıl içinde AI alanının toplam piyasa değerinin 48,5 milyar dolara ulaştığını ve 24 saatlik işlem hacminin neredeyse 8,6 milyar dolar olduğunu gösteriyor. Ana akım AI teknolojisindeki gelişmeler belirgin bir fayda sağladı, OpenAI'nin Sora metin-videoya dönüştürme modeli yayınlandıktan sonra, AI sektöründeki ortalama fiyat %151 arttı. AI etkisi, kripto para çekim alanlarından biri olan Meme'yi de etkiledi: İlk AI Agent konsepti olan MemeCoin GOAT hızla popülerlik kazandı ve 1,4 milyar dolarlık bir değerlemeye ulaştı, AI Meme dalgasını başarıyla başlattı.

AI+Web3 üzerine yapılan araştırmalar ve konular da oldukça popüler. AI+Depin'den AI Memecoin'e, şu anda ise AI Agent ve AI DAO'ya kadar yeni anlatılar arasındaki döngü hızı FOMO duygusunun ayak uydurmasını zorlaştırıyor.

AI+Web3 bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak sermaye tarafından düzenlenen bir evlilik olarak görülüyor. Bu göz alıcı görünümün altında gerçekten spekülatörlerin sahası mı, yoksa şafak patlamasının eşiği mi olduğunu ayırt etmekte zorlanıyoruz?

Bu sorunun yanıtını vermek için anahtar, düşünmekte yatıyor: Karşı taraf bunun daha iyi olmasına neden olacak mı? Karşı tarafın modelinden fayda sağlanabilir mi? Bu makale, geçmişteki bilgelerin üzerine çıkarak bu yapıyı incelemeye çalışıyor: Web3, AI teknolojisi yığınındaki her aşamada nasıl rol oynayabilir ve AI, Web3'e ne gibi yeni bir hayat katabilir?

Web3'te AI Yığınlarının Fırsatları

Bu konuyu açmadan önce, AI büyük modellerinin teknik yığınını anlamamız gerekiyor:

Büyük modeller, insan beynine benzer; erken aşamalar, yeni doğmuş bir bebek gibi, dünyayı anlamak için dışarıdan büyük miktarda bilgi gözlemleyip almak zorundadır. Bu, verilerin "toplanma" aşamasıdır. Bilgisayarlar insanın çoklu duyularına sahip olmadığından, eğitim öncesinde etiketlenmemiş bilgilerin bilgisayarın anlayabileceği bir formata "ön işleme" ile dönüştürülmesi gerekir.

Veri girdikten sonra AI, bebeklerin dış dünyayı anlamaya ve öğrenmeye başladığı sürece benzer şekilde, "eğitim" yoluyla anlayış ve tahmin yeteneğine sahip bir model oluşturur. Model parametreleri, bebeklerin sürekli olarak ayarladığı dil becerilerine benzer. Öğrenme içeriği, disiplinlere ayrılarak veya insanlarla iletişim kurarak geri bildirim alır ve düzeltmeler yapar, ardından "ince ayar" aşamasına geçer.

Çocuklar, büyüyüp konuşmayı öğrendiklerinde, yeni diyaloglarda anlamı anlayabilir ve duygularını, düşüncelerini ifade edebilirler. Bu, AI büyük modellerinin "çıkarım" yeteneğine benzer; model, yeni dil ve metin girdileri üzerinde tahmin analizi yapabilir. Bebekler, dil yetenekleri aracılığıyla duygularını ifade eder, nesneleri tanımlar ve problemleri çözerler. Bu, AI büyük modellerinin eğitim tamamlandıktan sonra çıkarım aşamasında çeşitli özel görevlerde, örneğin görüntü sınıflandırma, ses tanıma gibi, kullanılmasına benzer.

AI Ajan, büyük modellerin bir sonraki biçimine daha yakın — bağımsız olarak görevleri yerine getirebilen ve karmaşık hedefler peşinde koşabilen, yalnızca düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafıza, planlama yeteneğine sahip ve dünyayla etkileşimde bulunmak için araçları kullanabilen.

AI yığınlarının acı noktalarına yönelik olarak, Web3 şu anda AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmuştur.

AI+Web3: Kuleler ve Meydanlar

Temel Katman: Güç ve Veri için Airbnb

Hash Rate

Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modeli için gereken hesaplama gücü ve enerji.

Örneğin, Meta'nın LLAMA3'ü eğitimi tamamlamak için 30 gün boyunca 16.000 NVIDIA H100GPU'ya ihtiyaç duyuyor. H100 80GB versiyonunun birim fiyatı 30-40 bin dolar, bu da 4-7 milyar dolar hesaplama donanımı yatırımı (GPU + ağ yongası) gerektiriyor, aylık eğitim tüketimi 1,6 milyar kilowatt-saat, enerji harcaması ise yaklaşık 20 milyon dolar.

AI hesap gücünün rahatlatılması, Web3'ün AI ile kesiştiği en erken alanlardan biri - DePin (merkeziyetsiz fiziksel altyapı ağı). DePin Ninja veri sitesi, 1400'den fazla projeyi listelemiştir, GPU hesap gücü paylaşımını temsil eden projeler arasında io.net, Aethir, Akash, Render Network gibi projeler bulunmaktadır.

Ana mantık şudur: Platform, atıl GPU kaynaklarına sahip olanların, izin gerektirmeden merkeziyetsiz bir şekilde hesaplama gücü sunmalarına olanak tanır. Uber veya Airbnb benzeri çevrimiçi bir pazar aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırır. Nihai kullanıcılar, daha düşük maliyetle yüksek verimli hesaplama kaynaklarına erişim sağlar; aynı zamanda, teminat mekanizması, kaynak sağlayıcıların kalite kontrolünü ihlal etmesi veya ağı kesintiye uğratması durumunda uygun bir ceza uygulanmasını sağlar.

Özellikler şunları içerir:

  • Boşta kalan GPU kaynaklarını bir araya getirmek: Tedarikçiler, esas olarak üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik tesisleri gibi operatörlerin fazla işlem gücü kaynakları ve PoS konsensüs mekanizmasının madencilik donanımlarıdır, örneğin FileCoin ve ETH madencilik makineleri. Bazı projeler, exolab gibi daha düşük giriş engeline sahip cihazları başlatmaya çalışıyor; MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarımı için bir işlem gücü ağı oluşturuyor.

  • AI hesaplama gücüne yönelik uzun kuyruk pazarı: a. Teknik taraf: Merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, devasa küme ölçeği GPU veri işleme yeteneklerine daha fazla bağımlıdır, oysa çıkarım için GPU hesaplama performansı gereksinimleri görece daha düşüktür; örneğin Aethir, düşük gecikmeli render işlerine ve AI çıkarım uygulamalarına odaklanmaktadır. b. Talep tarafı: Küçük ve orta ölçekli hesaplama gücü talep edenler, kendi büyük modellerini tek başına eğitmeyecek, yalnızca az sayıda önde gelen büyük modeller etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir. Bu senaryolar doğal olarak dağıtılmış atıl hesaplama kaynakları için uygundur.

  • Merkeziyetsiz mülkiyet: Blok zinciri teknolojisinin anlamı, kaynak sahiplerinin her zaman kaynaklar üzerinde kontrolü elinde tutması, talebe göre esnek bir şekilde ayarlama yapabilmesi ve aynı zamanda kazanç elde etmesidir.

Veri

Veri, AI'nin temelidir. Veri olmadan, hesaplama, su üstünde yüzen bir bitki gibi işe yaramaz. Veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" atasözü gibidir; veri miktarı ve giriş kalitesi, nihai model çıkış kalitesini belirler. Mevcut AI model eğitimi için veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyacı sorunları esasen aşağıdaki dört alanda yoğunlaşmaktadır:

  • Veri açlığı: AI modellerinin eğitimi büyük veri girişi gerektirir. Kamuya açık verilere göre, OpenAI GPT-4'ü eğitmek için trilyon seviyesinde parametre kullanmıştır.

  • Veri kalitesi: AI ile çeşitli endüstrilerin birleşmesiyle birlikte, verilerin zamanlılığı, çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının duygu analizi gibi unsurlar, kalite için yeni gereksinimler ortaya koymaktadır.

  • Gizlilik ve uyum sorunları: Ülkeler ve şirketler, kaliteli veri setlerinin önemini giderek daha fazla fark ediyor ve veri seti toplama konusunda kısıtlamalar getirmeye çalışıyorlar.

  • Veri işleme maliyetleri yüksek: Veri miktarı büyük, işleme süreci karmaşık. Açık kaynaklar, AI şirketlerinin AR-GE maliyetlerinin %30'undan fazlasının temel veri toplama ve işleme için kullanıldığını gösteriyor.

Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:

  1. Veri Toplama: Ücretsiz sağlanan gerçek dünya verileri hızla tükeniyor, AI şirketleri veri için yapılan ödemelerini her yıl artırıyor. Ancak bu harcama, verilerin gerçek katkıcılarına geri dönmüyor; platformlar, verilerin sağladığı değer yaratımından tamamen faydalanıyor, örneğin Reddit, AI şirketleriyle veri lisanslama anlaşmaları yaparak toplamda 203 milyon dolar gelir elde etti.

Gerçekten katkıda bulunan kullanıcıların, verilerin sağladığı değer yaratımına katılmasını sağlamak ve dağıtık ağlar ile teşvik mekanizmaları aracılığıyla, düşük maliyetle kullanıcıların daha özel ve daha değerli verilere erişimini sağlamak, Web3'ün vizyonudur.

  • Grass, merkeziyetsiz bir veri katmanı ve ağdır. Kullanıcılar, Grass düğümlerini çalıştırarak, boşta kalan bant genişliğini ve aracı trafiği katkıda bulunarak, internetteki gerçek zamanlı verileri yakalayabilir ve token ödülleri kazanabilir.

  • Vana, benzersiz bir veri akış havuzu (DLP) konseptini tanıtıyor; kullanıcılar özel verilerini (alışveriş kayıtları, gezinme alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir DLP'ye yükleyebilir ve belirli üçüncü tarafların kullanımına izin verip vermemekte esneklik gösterebilir.

  • PublicAI'de kullanıcılar, X'te #AI或#Web3'ü kategori etiketi olarak kullanabilir ve veri toplamak için @PublicAI'ye gönderebilir.

  1. Veri ön işleme: AI veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerdiği için, model eğitimi öncesinde temizlenip kullanılabilir formata dönüştürülmesi gerekmektedir. Bu, standartlaştırma, filtreleme ve eksik değerlerle ilgili tekrarlayan görevleri içerir. Bu aşama, AI sektöründe az sayıdaki insan müdahalesi gerektiren aşamalardan biridir ve veri etiketleyicisi olarak bilinen bir meslek dalı ortaya çıkmıştır. Modelin veri kalitesi gereksinimlerinin artmasıyla, veri etiketleyicisi olma şartları da yükselmiştir ve bu görev doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
  • Grass ve OpenLayer, veri etiketleme bu kritik aşamasını dahil etmeyi düşünüyor.

  • Synesis, "Train2earn" kavramını sunarak veri kalitesine vurgu yapıyor, kullanıcılar etiketlenmiş veriler, yorumlar veya diğer biçimlerde girdi sağlayarak ödül kazanabiliyor.

  • Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını stake etmelerine olanak tanır.

  1. Veri gizliliği ve güvenliği: Veri gizliliği ve güvenliğinin iki farklı kavram olduğunu netleştirmek gerekir. Veri gizliliği, hassas veri işleme ile ilgilidir, veri güvenliği ise veri bilgilerini yetkisiz erişim, yok olma ve hırsızlıktan korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama senaryoları iki alanda ortaya çıkmaktadır: (1) hassas veri eğitimi; (2) veri işbirliği: Birden fazla veri sahibi, orijinal verileri paylaşmadan AI eğitimine ortak olarak katılabilir.

Mevcut Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:

  • Güvenilir Yürütme Ortamı(TEE), örneğin Super Protokol.

  • Tam homomorfik şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network.

  • Sıfır bilgi teknolojileri (zk), Reclaim Protocol gibi zkTLS teknolojisini kullanarak, HTTPS trafiği için sıfır bilgi kanıtları üretir. Bu, kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.

Ancak, şu anda bu alan hala erken aşamada ve çoğu proje hâlâ keşif aşamasında, mevcut zorluklar ise hesaplama maliyetlerinin çok yüksek olmasıdır, örneğin:

  • zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika gerektirir.

  • Modulus Labs verilerine göre, zkML maliyetleri saf hesaplamalardan 1000 kat daha fazla.

  1. Veri depolama: Veriye sahip olduktan sonra, veriyi zincir üzerinde depolamak için bir yere ve bu veriden üretilen LLM'ye de ihtiyaç vardır. Veri kullanılabilirliğini (DA) temel sorun olarak alırsak, Ethereum'un Danksharding yükseltmesi öncesinde, verimliliği 0.08MB'dır. Aynı zamanda, AI modeli eğitimi ve gerçek zamanlı çıkarım genellikle saniyede 50 ila 100GB veri verimliliği gerektirir. Bu ölçek farkı, mevcut zincir üzerindeki çözümleri "kaynak yoğun AI uygulamalarıyla" karşı karşıya kaldığında yetersiz bırakmaktadır.
  • 0g.AI bu kategorinin temsilci projesidir. Yüksek performanslı AI gereksinimleri için tasarlanmış merkezi depolama çözümüdür. Temel özellikleri arasında yüksek performans ve ölçeklenebilirlik, gelişmiş parçalama (Sharding) ve silme kodlama (Erasure Coding) teknolojileri ile büyük ölçekli veri setlerinin hızlı bir şekilde yüklenmesini ve indirilmesini desteklemek, veri aktarım hızı saniyede 5GB'a kadar yaklaşmaktadır.

Ara katman: Modelin eğitimi ve çıkarımı

Açık Kaynak Modeli Merkeziyetsiz Pazar

AI modellerinin kapalı mı yoksa açık mı olacağına dair tartışmalar asla sona ermedi. Açık kaynaklı olmanın getirdiği kolektif yenilik, kapalı kaynaklı modellerin karşılayamayacağı bir avantajdır; ancak kâr modeli olmadan açık kaynaklı modeller, geliştiricilerin motivasyonunu nasıl artırabilir? Düşünmeye değer bir konu. Baidu'nun kurucusu Li Yanhong bu yılın Nisan ayında, "Açık kaynaklı modeller giderek geride kalacak" şeklinde kesin bir ifade kullandı.

Buna karşılık, Web3, modelin kendisini tokenleştirme olasılığını sunan merkeziyetsiz bir açık kaynak modeli pazarı öneriyor, bu da ekibe belirli bir oranda token ayırmayı ve modelin gelecekteki gelir akışının bir kısmını token sahiplerine yönlendirmeyi içeriyor.

  • Bittensor protokolü, açık kaynaklı modellerin P2P pazarını oluşturur ve onlarca "alt ağdan" oluşur. Kaynak sağlayıcılar (hesaplama, veri toplama/depolama, makine öğrenimi yetenekleri) belirli alt ağ sahiplerinin hedeflerini karşılamak için birbirleriyle rekabet ederler. Her bir alt ağ etkileşimde bulunabilir ve birbirlerinden öğrenerek daha güçlü bir zeka oluşturabilirler. Ödüller, topluluk oylaması ile dağıtılır ve rekabet performansına göre daha fazla dağıtım yapılır.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 6
  • Share
Comment
0/400
metaverse_hermitvip
· 15h ago
Para kazanmak, kötü bir şey değil.
View OriginalReply0
OnchainHolmesvip
· 15h ago
Ah bu spekülasyon yine geldi.
View OriginalReply0
RektRecordervip
· 15h ago
Sermaye yine enayilerin kokusunu aldı.
View OriginalReply0
SilentObservervip
· 15h ago
Bu AI gerçekten sağlam.
View OriginalReply0
GasFeeCrybabyvip
· 15h ago
Ne zaman düşüş olacak?
View OriginalReply0
SchroedingerMinervip
· 15h ago
Blok Zinciri碎碎念 Madenci'nin mutluluğunu çıkarmak
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)