Yapay Zeka ve Blok Zinciri Entegrasyonu: Endüstri Zinciri Değerini ve Gelecek Gelişim Eğilimlerini Yeniden Şekillendirmek

AI sektörünün evrimi ve Blok Zinciri ile entegrasyonun geleceği

Yapay zeka endüstrisi son zamanlarda önemli ilerlemeler kaydetti ve dördüncü sanayi devriminin ana itici gücü olarak görülüyor. Büyük dil modellerinin ortaya çıkışı, birçok sektörde iş verimliliğini önemli ölçüde artırdı; Boston Consulting Group, GPT'nin ABD'nin genel üretkenliğini yaklaşık %20 oranında artırdığını düşünüyor. Aynı zamanda, büyük modellerin sahip olduğu genelleme yeteneği, geçmişteki hassas kodlama yöntemlerinden farklı olarak, tamamen yeni bir yazılım tasarım paradigması olarak değerlendiriliyor; günümüzde yazılım tasarımı, daha geniş modalite giriş ve çıkışlarını destekleyebilen, genelleme yeteneği daha yüksek büyük model çerçevelerini daha fazla kullanıyor. Derin öğrenme teknolojisi, AI endüstrisine yeni bir refah dönemi getirdi ve bu dalga, giderek kripto para endüstrisine de yayılmakta.

Bu rapor, AI endüstrisinin gelişim sürecini, teknoloji sınıflandırmalarını ve derin öğrenme teknolojisinin sektöre olan etkilerini derinlemesine inceleyecektir. Derin öğrenme alanındaki GPU, bulut bilişim, veri kaynakları, kenar cihazları gibi endüstri zincirinin yukarı ve aşağı akışındaki durum ve gelişim eğilimlerini analiz edeceğiz. Aynı zamanda, kripto para birimi ile AI endüstrisi arasındaki ilişkiyi esasen tartışacak ve kripto para birimi ile ilgili AI endüstri zinciri yapısını gözden geçireceğiz.

AI sektörü gelişim süreci

AI endüstrisi 20. yüzyılın 50'li yıllarından bu yana, akademik çevreler ve sanayi dünyası farklı dönemlerde, farklı disiplin arka planlarında, yapay zekayı gerçekleştirmenin çeşitli okullarını geliştirmiştir.

Modern yapay zeka teknolojisi, "makine öğrenimi" terimini anahtar kavram olarak benimsemektedir. Temel fikri, makinelerin belirli görevlerde sistem performansını artırmak için verilerle tekrar tekrar iterasyon yapmasıdır. Ana adımlar, verilerin algoritmaya girişi, verilerin modelin eğitimi için kullanılması, modelin test edilmesi ve uygulanması, son olarak modelin otomatik tahmin görevini yerine getirmesi için kullanılmasıdır.

Şu anda makine öğreniminin üç ana akımı bulunmaktadır: bağlantıcılık, sembolistlik ve davranışçılık. Bu akımlar sırasıyla insan sinir sistemini, düşüncesini ve davranışını taklit eder. Aralarından bağlantıcılığın, özellikle sinir ağlarının temsilcisi olduğu ve şu anda baskın bir konumda olduğu, aynı zamanda derin öğrenme olarak da bilinir. Sinir ağı mimarisi, giriş katmanı, çıkış katmanı ve birden fazla gizli katman içerir. Katman sayısı ve nöron parametreleri yeterince fazla olduğunda, karmaşık genel görevleri modelleyebilir. Sürekli veri girişiyle nöron parametrelerini ayarlayarak, nihayetinde nöronlar en iyi duruma ulaşır; bu da "derin" teriminin kökenidir - yeterince fazla katman ve nöron.

Sinir ağlarına dayalı derin öğrenme teknolojisi, en erken sinir ağlarından başlayarak, ileri beslemeli sinir ağları, RNN, CNN, GAN gibi birçok yineleme ve evrim geçirmiştir; sonunda modern büyük modellerin, örneğin GPT gibi, kullandığı Transformer teknolojisine gelişmiştir. Transformer teknolojisi, sinir ağlarının bir evrim yönüdür ve çeşitli modların, örneğin ses, video, resim gibi, verilerini karşılık gelen sayısal temsillere kodlamak için bir dönüştürücü ( Transformer ) ekler, ardından verileri sinir ağına girdi olarak sağlayarak, sinir ağlarının her türlü veriyi uyumlu hale getirmesini ve çok modlu işleme gerçekleştirmesini sağlar.

Yeni Başlangıç Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye

AI gelişimi üç teknolojik dalgadan geçti:

İlk dalga 1960'lı yıllarda, sembolist teknolojilerin tetiklediği, genel doğal dil işleme ve insan-bilgisayar etkileşimi sorunlarını çözdü. Aynı dönemde, Amerika Birleşik Devletleri Ulusal Havacılık ve Uzay Dairesi tarafından geliştirilen DENDRAL kimya uzman sistemi gibi uzman sistemler doğdu.

İkinci dalga 1990'lı yıllarda gerçekleşti, Bayes ağları ve davranış temelli robotik önerildi ve davranışçılığın doğuşunu simgeledi. 1997'de, IBM'in Deep Blue'su satranç şampiyonu Garry Kasparov'u yenmesi, yapay zekanın bir dönüm noktası olarak kabul edildi.

Üçüncü dalga 2006 yılında başladı. Derin öğrenme kavramı, yapay sinir ağları mimarisi ile verilerin temsil öğrenimini gerçekleştirdi. Ardından derin öğrenme algoritmaları sürekli evrildi, RNN, GAN'dan Transformer ve Stable Diffusion'a kadar, bu teknolojik dalgayı şekillendirdi ve aynı zamanda bağdaştırmacılığın altın çağı oldu.

Bu süre zarfında birçok sembolik olay meydana geldi:

  • 2011 yılında, IBM'in Watson'ı "Tehlikeli Sınırlar" bilgi yarışmasında insan yarışmacıları yendi.
  • 2014 yılında, Goodfellow GAN( Üretici Karşıt Ağı)'ı önerdi.
  • 2015 yılında, Hinton ve diğerleri "Nature" dergisinde derin öğrenme algoritmasını önerdi ve büyük bir yankı uyandırdı. OpenAI kuruldu.
  • 2016 yılında, AlphaGo, go dünya şampiyonu Lee Sedol'u yendi.
  • 2017'de, Google Transformer algoritmasını önerdi, büyük ölçekli dil modelleri ortaya çıkmaya başladı.
  • 2018'de OpenAI GPT'yi, DeepMind AlphaFold'u yayımladı.
  • 2019 yılında, OpenAI GPT-2'yi yayımladı.
  • 2020'de OpenAI, GPT-3'ü yayınladı.
  • 2023 yılında, GPT-4 tabanlı ChatGPT piyasaya sürüldü ve hızla yüz milyon kullanıcıya ulaştı.

Yeni başlayanlar için bilgi丨AI x Kripto: Sıfırdan Zirveye

Derin Öğrenme Endüstri Zinciri

Mevcut büyük dil modelleri, esas olarak sinir ağına dayalı derin öğrenme yöntemlerini kullanmaktadır. GPT gibi büyük modeller, yeni bir yapay zeka dalgasını başlatmış, bu alana büyük bir oyuncu akını yaşanmış ve pazarın veri ve hesaplama gücüne olan talebi patlamıştır. Bu bölüm, derin öğrenme algoritmalarının sanayi zinciri yapısını ve yukarı ve aşağı akıştaki durumunu, arz-talep ilişkisini ve gelecekteki gelişimini inceleyecektir.

Transformer teknolojisine dayanan GPT gibi büyük dil modelleri (LLMs) eğitimi esasen üç adımda gerçekleştirilir:

  1. Ön Eğitim: Sinir ağlarının en iyi parametrelerini bulmak için büyük miktarda veri girişi yapılır. Bu süreç en fazla hesaplama gücü gerektirir ve çeşitli parametreleri denemek için tekrarlı iterasyonlar gerektirir.

  2. İnce ayar: Model çıktısının kalitesini artırmak için az ama yüksek kaliteli verilerle eğitim.

  3. Pekiştirmeli Öğrenme: Büyük modelin çıktı kalitesini değerlendirmek için bir "ödül modeli" oluşturmak, bu model aracılığıyla büyük modelin parametrelerini otomatik olarak yinelemek. Bazen insan müdahalesi ile değerlendirme yapmak da gerekebilir.

Kısaca, ön eğitim yüksek veri miktarı gerektirir ve en fazla GPU hesaplama gücünü tüketir; ince ayar, parametreleri iyileştirmek için yüksek kaliteli verilere ihtiyaç duyar; pekiştirmeli öğrenme, çıktı kalitesini artırmak için parametreleri ödül modeli ile tekrar tekrar yinelemeli olarak ayarlar.

Büyük model performansını etkileyen üç ana faktör: parametre sayısı, veri miktarı ve kalitesi, hesaplama gücüdür. Bu üçü, büyük modelin sonuç kalitesini ve genelleme kabiliyetini birlikte belirler. Parametre sayısının p, veri miktarının n( Token sayısı ile hesaplandığını varsayarsak, gerekli hesaplama miktarını tahmin etmek için deneysel bir kural kullanarak gerekli hesaplama gücünü ve eğitim süresini tahmin edebiliriz.

Hesaplama gücü genellikle Flops ile temel birim olarak ifade edilir ve bir floating point işlemini temsil eder. Pratik deneyimlere göre, bir büyük modelin önceden eğitilmesi yaklaşık 6np Flops gerektirir. Çıkarım süreci ) girdi verisinin model çıkışını beklemesi ise 2np Flops gerektirir.

Erken dönem AI eğitimi genellikle CPU yongaları kullanıyordu, daha sonra yavaş yavaş Nvidia'nın A100, H100 gibi GPU'lar ile değiştirildi. GPU'lar enerji verimliliği açısından CPU'ları çok geride bırakıyor, esas olarak Tensor Core modülü aracılığıyla kayan nokta işlemleri gerçekleştiriyor. Yonga'nın hesaplama kapasitesi genellikle FP16/FP32 hassasiyetinde Flops ile ölçülmektedir.

GPT-3 örneğinde olduğu gibi, 1750 milyar parametreye ve 1800 milyar Token veri miktarına sahip ( yaklaşık 570GB ). Bir ön eğitim yapmak için 3.15*10^22 Flops gereklidir, bu da bir Nvidia A100 SXM çipinin 584 gün sürmesi anlamına gelir. GPT-4'ün parametre sayısının GPT-3'ün 10 katı olduğu ve veri miktarının da 10 kat arttığı düşünüldüğünde, muhtemelen 100 katından fazla çip hesap gücü gerekecektir.

Büyük model eğitimi sırasında, veri depolama da bir zorluktur. GPU belleği genellikle küçüktür ( örneğin A100 için 80GB ), tüm verileri ve model parametrelerini barındıracak kapasitede değildir. Bu nedenle, yonga bant genişliğini dikkate almak gerekir, yani verilerin sabit disk ile bellek arasındaki iletim hızını. Çoklu GPU iş birliğiyle eğitim sırasında, yongalar arasındaki veri iletim hızı da çok önemlidir.

Yeni Başlayanlar için Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye

Derin öğrenme endüstri zinciri esasen aşağıdaki birkaç aşamayı içermektedir:

  1. Donanım GPU sağlayıcıları: Şu anda Nvidia kesin bir lider konumda. Akademik dünyada genellikle tüketici tipi GPU'lar (, RTX serisi ) gibi kullanılmaktadır, sanayi dünyasında ise genellikle H100, A100 gibi profesyonel çipler tercih edilmektedir. Google'ın da kendi geliştirdiği TPU çipleri bulunmaktadır.

  2. Bulut hizmeti sağlayıcıları: Sınırlı bütçeye sahip AI işletmeleri için esnek hesaplama gücü ve barındırma eğitim çözümleri sunar. Temelde üç kategoriye ayrılır: Geleneksel bulut sağlayıcıları ( örneğin AWS, Google Cloud, Azure ), dikey AI bulut hesaplama platformları ( örneğin CoreWeave, Lambda ), ve hizmet olarak çıkarım sağlayıcıları ( örneğin Together.ai, Fireworks.ai ).

  3. Eğitim veri kaynağı sağlayıcıları: Büyük modellere büyük miktarda veri veya yüksek kaliteli veri sağlar. Google, Reddit gibi çok sayıda veriye sahip şirketler dikkat çekmektedir. Ayrıca, belirli alan modellerine veri sağlayan özel veri etiketleme şirketleri de bulunmaktadır.

  4. Veritabanı Sağlayıcıları: AI eğitim çıkarım görevleri esasen "vektör veritabanı" kullanır, bu da büyük miktarda yüksek boyutlu vektör verilerini verimli bir şekilde depolamak ve indekslemek için kullanılır. Ana oyuncular arasında Chroma, Zilliz, Pinecone, Weaviate gibi isimler bulunmaktadır.

  5. Kenar Cihazları: GPU kümelerine ısı dağıtımı ve enerji desteği sağlar. Enerji tedarik ( olarak jeotermal, hidrojen enerjisi, nükleer enerji ) ve soğutma sistemleri ( olarak sıvı soğutma teknolojisi ) dahildir.

  6. Uygulama: Şu anda AI uygulamaları esas olarak arama, soru-cevap gibi alanlarda yoğunlaşmaktadır, kalıcılık ve aktiflik oranları genellikle geleneksel internet uygulamalarından daha düşüktür. Uygulamalar esasen profesyonel tüketicilere, işletmelere ve sıradan tüketicilere yönelik üç kategoriye ayrılmaktadır.

Yeni Başlangıçlar丨AI x Kripto: Sıfırdan Zirveye

Kripto Para ve AI İlişkisi

Blok Zinciri teknolojisinin temeli, merkeziyetsizlik ve güven gerektirmemektir. Bitcoin, güven gerektirmeyen bir değer transfer sistemi oluşturdu, Ethereum ise merkeziyetsiz ve güven gerektirmeyen akıllı sözleşme platformunu daha da ileriye taşıdı. Temel olarak, blok zinciri ağı bir değer ağıdır, her bir işlem, temel token'lara dayalı bir değer dönüşümüdür.

Geleneksel internette, değer P/E gibi göstergelerle hisse fiyatında kendini gösterir. Ancak blok zinciri ağında, yerel token (, ETH) gibi, ağın çok boyutlu değerini yansıtır; yalnızca staking getirisi elde etmekle kalmaz, aynı zamanda değer değişim aracı, değer saklama aracı ve ağ faaliyet tüketim malları gibi işlevler de görür.

Tokenomik (, ekosistem hesaplama nesnelerinin ) yerel tokenlerinin ( göreceli değerini belirler. Her boyut için ayrı bir fiyatlandırma yapılamasa da, token fiyatı çok boyutlu bir değeri bütünsel olarak yansıtır. Ağa token verildiğinde ve bunların dolaşıma girmesi sağlandığında, geleneksel hisse senetlerinden çok daha fazla değer elde etmek mümkün olur.

Token ekonomisinin cazibesi, herhangi bir işlev veya düşünceye değer katabilmesidir. Değeri yeniden tanımlar ve keşfeder, AI dahil olmak üzere birçok sektörde kritik öneme sahiptir. AI endüstrisinde, token çıkarmak, endüstri zincirinin her aşamasının değerini yeniden şekillendirebilir ve daha fazla insanı niş alanlarda derinlemesine çalışmaya teşvik edebilir. Token ayrıca altyapıya ek değer sağlayarak "şişman protokoller, ince uygulamalar" paradigmalarının oluşumunu teşvik edebilir.

Blok Zinciri teknolojisinin değiştirilmez ve güvene ihtiyaç duymayan özellikleri, AI sektörüne de pratik değerler katabilir. Örneğin, kullanıcı gizliliğini koruma şartıyla modellere veri kullanma izni verilebilir; küresel ağlar aracılığıyla kullanılmayan GPU hesaplama gücü dağıtılarak kalan değerler yeniden keşfedilebilir.

Genel olarak, token ekonomisi değerlerin yeniden şekillendirilmesine ve keşfine yardımcı olurken, merkeziyetsiz defter güven sorunlarını çözebilir ve değerin küresel ölçekte yeniden akışını sağlar. Bu kombinasyon, AI endüstrisine yeni olanaklar getiriyor.

![Yeni Başlayanlar için Bilgilendirme丨AI x Kripto: Sıfırdan Zirveye])https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

Kripto Para Sektörü AI Endüstri Zinciri Genel Görünümü

  1. GPU arz tarafı: Ana projeler arasında Render, Golem gibi projeler bulunmaktadır. Render, daha olgun bir proje olarak, esas olarak büyük model olmayan video renderleme görevlerine yöneliktir. GPU bulut hesaplama pazarı yalnızca AI model eğitimi ve çıkarımı için değil, aynı zamanda geleneksel renderleme görevleri için de uygundur ve tek bir pazara bağımlılık riskini azaltmaktadır.

  2. Donanım bant genişliği: Meson Network gibi projeler, küresel bir bant genişliği paylaşım ağı kurmaya çalışıyor. Ancak, bant genişliğinin paylaşımı büyük model eğitiminde sahte bir talep olabilir, çünkü coğrafi konumdan kaynaklanan gecikmeler eğitim verimliliğini önemli ölçüde etkileyebilir.

  3. Veri: Ana projeler arasında EpiK Protokolü, Synesis One, Masa vb. bulunmaktadır. Geleneksel veri şirketleriyle karşılaştırıldığında, blok zinciri veri sağlayıcıları veri toplama konusunda avantajlara sahiptir, kişisel verilere fiyatlandırma yapabilir ve kullanıcıları veri katkısında bulunmaları için token ile teşvik edebilir.

  4. ZKML: Projeler Zama, TruthGPT gibi sıfır bilgi kanıtı teknolojisini gizli hesaplama ve eğitim için kullanıyor. Ayrıca, Axiom, Risc Zero gibi bazı genel ZK projeleri de dikkate değer.

  5. AI Uygulamaları: Şu anda ana olarak geleneksel Blok Zinciri uygulamaları otomasyon ve genelleme yetenekleri ile birleştiriliyor. AI Agent), Fetch.AI( gibi, kullanıcılar ile çeşitli uygulamalar arasında bir köprü olarak, ilk faydayı sağlaması bekleniyor.

  6. AI Blok Zinciri: Tensor gibi,

GPT3.78%
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 4
  • Share
Comment
0/400
mev_me_maybevip
· 20h ago
gpt aşırı ısındı, soğuması lazım.
View OriginalReply0
fork_in_the_roadvip
· 20h ago
Artık her şeyi görebilen enayiler
View OriginalReply0
NotFinancialAdviservip
· 20h ago
GPT anlıyor, Kripto Para Trade bu sefer kesin yeni zirveye çıkacak.
View OriginalReply0
ContractExplorervip
· 20h ago
ai likidasyona uğramak diğerleriyle tırtıl
View OriginalReply0
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)