Titre original transmis : AI+Web3 Future Development Path (2) : Chapitre Infrastructure
Ces dernières années, la demande en puissance de calcul a connu une croissance rapide, en particulier suite à l'émergence du grand modèle LLM. Cette hausse de la demande en puissance de calcul pour l'IA a eu un impact significatif sur le marché du calcul haute performance. Les données d'OpenAI révèlent une tendance remarquable depuis 2012, avec la puissance de calcul utilisée pour former les plus grands modèles d'IA qui croît de manière exponentielle, doublant tous les 3 à 4 mois en moyenne, dépassant le taux de croissance prédit par la loi de Moore. La demande croissante pour les applications d'IA a entraîné une augmentation rapide du besoin en matériel informatique. Les projections indiquent qu'en 2025, la demande en matériel informatique entraînée par les applications d'IA devrait augmenter d'environ 10 % à 15 %.
Poussé par la demande de puissance de calcul en IA, le fabricant de matériel GPU NVIDIA a enregistré une croissance continue des revenus du centre de données. Au deuxième trimestre de 2023, les revenus du centre de données ont atteint 10,32 milliards de dollars, soit une augmentation de 141 % par rapport au premier trimestre de 2023 et une augmentation notable de 171 % par rapport à la même période de l'année précédente. Au quatrième trimestre de l'exercice 2024, le segment des centres de données représentait plus de 83 % du chiffre d'affaires total, enregistrant une croissance simultanée de 409 %, dont 40 % étaient attribuables à des scénarios d'inférence de grands modèles, indiquant une demande robuste de puissance informatique haute performance.
Simultanément, le besoin de vastes quantités de données impose des exigences importantes en matière de stockage et de mémoire matérielle. Particulièrement pendant la phase d'entraînement du modèle, des entrées de paramètres étendues et un stockage de données sont essentiels. Les puces mémoire utilisées dans les serveurs AI comprennent principalement une mémoire à bande passante élevée (HBM), DRAM et SSD. Les environnements de travail des serveurs AI doivent offrir une capacité accrue, des performances améliorées, une latence réduite et des temps de réponse plus rapides. Selon les calculs de Micron, la quantité de DRAM dans les serveurs AI dépasse celle des serveurs traditionnels de huit fois, tandis que la quantité de NAND dépasse les normes des serveurs traditionnels de trois fois.
Typiquement, la puissance de calcul est principalement utilisée dans les étapes d'entraînement, de peaufinage et d'inférence des modèles d'IA, notamment pendant les phases d'entraînement et de peaufinage. En raison de l'augmentation des entrées de paramètres de données, des exigences en termes de calcul et de la demande accrue d'interconnectivité dans le calcul parallèle, il est nécessaire de disposer de matériel GPU plus puissant et interconnecté, souvent sous la forme de clusters GPU haute performance. À mesure que les grands modèles évoluent, la complexité de calcul augmente de manière linéaire, nécessitant des matériels haut de gamme supplémentaires pour répondre aux exigences de l'entraînement des modèles.
En prenant GPT-3 comme exemple, avec un scénario impliquant environ 13 millions de visites d'utilisateurs indépendants, la demande de puces correspondante dépasserait 30 000 GPU A100. Ce coût initial d'investissement atteindrait un montant stupéfiant de 800 millions de dollars, avec des coûts estimés d'inférence de modèle quotidiens totalisant environ 700 000 dollars.
Simultanément, les rapports de l'industrie indiquent qu'au quatrième trimestre de 2023, l'approvisionnement en GPU de NVIDIA était fortement restreint à l'échelle mondiale, entraînant un déséquilibre notable entre l'offre et la demande sur les marchés mondiaux. La capacité de production de NVIDIA était limitée par des facteurs tels que TSMC, HBM, l'emballage CoWos, et le "problème de pénurie grave" du GPU H100 devrait persister au moins jusqu'à la fin de 2024.
Par conséquent, la demande croissante de GPU haut de gamme et les contraintes d'approvisionnement ont fait grimper en flèche les prix des composants matériels actuels tels que les GPU. En particulier pour des entreprises comme NVIDIA qui occupent une position centrale dans la chaîne industrielle, les prix élevés sont encore augmentés par leur domination monopolistique, ce qui leur permet de récolter des dividendes de valeur supplémentaires. Par exemple, le coût matériel de la carte accélératrice IA H100 de NVIDIA est d'environ 3 000 dollars, mais son prix de vente a atteint environ 35 000 dollars mi-2023 et a même dépassé les 40 000 dollars sur eBay.
Un rapport de Grand View Research indique que la taille du marché mondial de l'IA cloud était estimée à 62,63 milliards de dollars en 2023, avec une projection à 647,6 milliards de dollars d'ici 2030, et un taux de croissance annuel composé de 39,6%. Ces chiffres soulignent le potentiel de croissance significatif des services d'IA cloud et leur contribution substantielle à l'ensemble de la chaîne de l'industrie de l'IA.
Selon les estimations de a16z, une partie substantielle des fonds du marché de l'AIGC (IA et informatique mondiale) finit par affluer vers les entreprises d'infrastructure. En moyenne, les entreprises d'application allouent environ 20 à 40 % de leur chiffre d'affaires à l'inférence et au peaufinage pour chaque client. Ces dépenses sont généralement dirigées vers le fournisseur de cloud de l'instance de calcul ou un fournisseur de modèle tiers, qui à son tour consacre environ la moitié du chiffre d'affaires à l'infrastructure cloud. Par conséquent, il est raisonnable de supposer que 10 à 20 % du chiffre d'affaires total généré par l'AIGC est canalisé vers les fournisseurs de cloud.
De plus, une part significative de la demande en puissance de calcul est centrée sur la formation de grands modèles d'IA, y compris divers modèles LLM étendus. En particulier pour les startups de modèles, 80 à 90 % des coûts sont attribués à la puissance de calcul de l'IA. Collectivement, l'infrastructure de calcul pour l'IA, englobant le cloud computing et le matériel, est censée représenter plus de 50 % de la valeur initiale du marché.
Comme mentionné précédemment, le coût actuel de l'informatique centralisée en IA reste élevé, principalement en raison de la demande croissante d'infrastructures haute performance pour la formation en IA. Cependant, une quantité importante de puissance informatique inutilisée existe sur le marché, ce qui entraîne un déséquilibre entre l'offre et la demande. Les principaux facteurs contribuant à ce déséquilibre sont les suivants :
En réponse aux défis énoncés ci-dessus, la poursuite de la conception de puces hautes performances ou de puces ASIC spécialisées adaptées aux tâches d'IA est une voie importante explorée par de nombreux développeurs et grandes entreprises. Une autre approche implique l'utilisation complète des ressources informatiques existantes pour établir un réseau informatique distribué, visant à réduire les coûts de puissance de calcul grâce à la location, au partage et à une planification efficace des ressources. De plus, le marché héberge actuellement un surplus de GPU et de CPU grand public inutilisés. Bien que les unités individuelles puissent manquer de puissance de calcul robuste, elles peuvent répondre efficacement aux besoins de calcul existants dans des scénarios spécifiques ou lorsqu'elles sont intégrées à des puces hautes performances. Il est essentiel de garantir un approvisionnement suffisant, car les coûts peuvent être encore réduits grâce à une planification du réseau distribué.
Par conséquent, le passage vers une puissance informatique distribuée s'est imposé comme une direction clé dans le développement de l'infrastructure IA. En même temps, compte tenu de l'alignement conceptuel entre Web3 et les systèmes distribués, les réseaux de puissance informatique décentralisée sont devenus un axe principal dans le paysage de l'infrastructure Web3+IA. Actuellement, les plateformes de puissance informatique décentralisée sur le marché Web3 proposent généralement des prix de 80 % à 90 % inférieurs à ceux des services de cloud computing centralisés.
Alors que le stockage joue un rôle vital dans l'infrastructure de l'IA, le stockage centralisé présente des avantages distincts en termes d'échelle, d'utilisabilité et de faible latence. Cependant, en raison des efficacités de coûts notables qu'ils offrent, les réseaux informatiques distribués ont un potentiel de marché significatif et sont susceptibles de tirer des avantages substantiels de l'expansion du marché florissant de l'IA.
Le secteur de l'infrastructure AI distribuée présente une demande robuste et d'importantes perspectives de croissance à long terme, ce qui en fait un domaine attractif pour le capital d'investissement. Actuellement, les principaux projets au sein de la couche d'infrastructure de l'industrie AI+Web3 se concentrent principalement sur les réseaux informatiques décentralisés. Ces projets mettent en avant les faibles coûts comme avantage clé, utilisent des incitations token pour étendre leurs réseaux et donnent la priorité à la clientèle AI+Web3 comme objectif principal. Ce secteur comprend principalement deux niveaux clés :
Offrant des services à des prix plus compétitifs que les services de cloud computing centralisés, tout en maintenant des installations de support et des expériences utilisateur comparables, ce projet a attiré l'attention de investisseurs de renom. Cependant, la complexité technique accrue pose un défi significatif. Actuellement, le projet est dans la phase narrative et de développement, sans produit entièrement lancé à ce jour.
Render Network est une plate-forme mondiale de rendu basée sur la blockchain qui exploite des GPU distribués pour offrir aux créateurs des services de rendu 3D rentables et efficaces. À la confirmation des résultats de rendu par le créateur, le réseau blockchain envoie des récompenses en jetons aux nœuds. La plate-forme propose un réseau de planification et d'allocation de GPU distribués, attribuant des tâches en fonction de l'utilisation des nœuds, de la réputation et d'autres facteurs pour optimiser l'efficacité de calcul, minimiser les ressources inutilisées et réduire les dépenses.
Le jeton natif de la plateforme, RNDR, sert de devise de paiement au sein de l'écosystème. Les utilisateurs peuvent utiliser RNDR pour régler les frais de service de rendu, tandis que les prestataires de services gagnent des récompenses RNDR en contribuant à la puissance de calcul pour accomplir les tâches de rendu. La tarification des services de rendu est ajustée dynamiquement en réponse à l'utilisation actuelle du réseau et à d'autres mesures pertinentes.
Le rendu s'avère être un cas d'utilisation bien adapté et établi pour l'architecture de puissance informatique distribuée. La nature des tâches de rendu permet leur segmentation en plusieurs sous-tâches exécutées en parallèle, minimisant la communication et l'interaction inter-tâches. Cette approche atténue les inconvénients de l'architecture informatique distribuée tout en exploitant le vaste réseau de nœuds GPU pour générer des économies de coûts.
La demande pour le réseau Render est importante, les utilisateurs ayant rendu plus de 16 millions de trames et près de 500 000 scènes sur la plateforme depuis sa création en 2017. Le volume des tâches de rendu et des nœuds actifs ne cesse d'augmenter. De plus, au cours du premier trimestre 2023, Render Network a introduit un ensemble d'outils AI de stabilité intégré de manière native, permettant aux utilisateurs d'incorporer des opérations de diffusion stable. Cette expansion au-delà des opérations de rendu signifie un mouvement stratégique dans le domaine des applications AI.
Gensyn opère en tant que cluster de supercalcul mondial spécialisé dans le calcul en profondeur, utilisant le protocole L1 de Polkadot. En 2023, la plateforme a sécurisé 43 millions de dollars de financement de série A, dirigés par a16z. Le cadre architectural de Gensyn s'étend au-delà du cluster de puissance de calcul distribué de l'infrastructure pour englober un système de vérification de couche supérieure. Ce système garantit que les calculs étendus hors chaîne sont conformes aux exigences en chaîne grâce à une vérification de la blockchain, établissant un réseau d'apprentissage automatique sans confiance.
En ce qui concerne la puissance informatique distribuée, Gensyn accueille un éventail d'appareils, des centres de données avec une capacité excédentaire aux ordinateurs portables personnels dotés de GPU potentiels. Il unit ces appareils dans un cluster virtuel unifié accessible aux développeurs pour une utilisation pair à pair à la demande. Gensyn vise à établir un marché où les prix sont dictés par les forces du marché, favorisant l'inclusivité et permettant aux coûts de calcul ML d'atteindre des niveaux équitables.
Le système de vérification constitue un concept central pour Gensyn, visant à valider l'exactitude des tâches d'apprentissage automatique telles que spécifiées. Il introduit une approche de vérification innovante comprenant une preuve d'apprentissage probabiliste, un protocole de positionnement précis basé sur un graphe et Truebit. Ces caractéristiques techniques fondamentales du jeu incitatif offrent une efficacité accrue par rapport aux méthodes traditionnelles de validation de la blockchain. Les participants du réseau comprennent les soumissionnaires, les résolveurs, les vérificateurs et les lanceurs d'alerte, facilitant collectivement le processus de vérification.
Basé sur les données de test détaillées dans le livre blanc du protocole Gensyn, les avantages notables de la plateforme incluent :
Cependant, en même temps, la puissance de calcul distribuée introduit une augmentation inévitable du temps d'entraînement par rapport à l'entraînement local, attribuée aux défis de communication et de réseau. Sur la base des données de test, le protocole Gensyn entraîne un surcoût de temps d'environ 46% dans l'entraînement du modèle.
Akash Network fonctionne comme une plateforme de cloud computing distribué qui intègre divers éléments techniques pour permettre aux utilisateurs de déployer et gérer efficacement des applications au sein d'un environnement de cloud décentralisé. En essence, il offre aux utilisateurs la capacité de louer des ressources informatiques distribuées.
Au cœur d'Akash se trouve un réseau de fournisseurs de services d'infrastructure dispersés à l'échelle mondiale, offrant des ressources CPU, GPU, mémoire et stockage. Ces fournisseurs fournissent des ressources pour la location par l'utilisateur via le cluster Kubernetes supérieur. Les utilisateurs peuvent déployer des applications sous forme de conteneurs Docker pour tirer parti de services d'infrastructure rentables. De plus, Akash met en œuvre une approche d'"enchères inversées" pour faire encore baisser les prix des ressources. Selon les estimations du site officiel d'Akash, les coûts de service de la plateforme sont environ 80% inférieurs à ceux des serveurs centralisés.
io.net se présente comme un réseau informatique décentralisé qui relie des GPU distribués mondialement pour fournir un support computationnel pour la formation et le raisonnement des modèles d'IA. Récemment, après avoir conclu une levée de fonds de série A de 30 millions de dollars, la plateforme affiche désormais une valorisation de 1 milliard de dollars.
Distingué des plateformes comme Render et Akash, io.net émerge comme un réseau informatique décentralisé robuste et évolutif, étroitement lié à plusieurs niveaux d'outils de développement. Ses principales caractéristiques comprennent :
En ce qui concerne la tarification, le site officiel de io.net estime que ses tarifs seront environ 90% inférieurs à ceux des services de cloud computing centralisés.
De plus, le jeton natif de io.net, IO coin, servira principalement de mécanisme de paiement et de récompenses au sein de l'écosystème. En outre, les demandeurs peuvent adopter un modèle similaire à Helium en convertissant IO coin en la devise stable "points IOSD" pour les transactions.
Cet article est repris de [GateWanxiang Blockchain], le titre original est « AI+Web3 Future Development Road (2) ) : Infrastructure », le droit d’auteur appartient à l’auteur original [Blockchain Wanxiang]. If there are objections to this reprint, please contact the Gate Learn Équipe, et ils s'en occuperont rapidement.
Responsabilité de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent pas des conseils en investissement.
Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sans mentionner Gate.io, l'article traduit ne peut être reproduit, distribué ou plagié.
Titre original transmis : AI+Web3 Future Development Path (2) : Chapitre Infrastructure
Ces dernières années, la demande en puissance de calcul a connu une croissance rapide, en particulier suite à l'émergence du grand modèle LLM. Cette hausse de la demande en puissance de calcul pour l'IA a eu un impact significatif sur le marché du calcul haute performance. Les données d'OpenAI révèlent une tendance remarquable depuis 2012, avec la puissance de calcul utilisée pour former les plus grands modèles d'IA qui croît de manière exponentielle, doublant tous les 3 à 4 mois en moyenne, dépassant le taux de croissance prédit par la loi de Moore. La demande croissante pour les applications d'IA a entraîné une augmentation rapide du besoin en matériel informatique. Les projections indiquent qu'en 2025, la demande en matériel informatique entraînée par les applications d'IA devrait augmenter d'environ 10 % à 15 %.
Poussé par la demande de puissance de calcul en IA, le fabricant de matériel GPU NVIDIA a enregistré une croissance continue des revenus du centre de données. Au deuxième trimestre de 2023, les revenus du centre de données ont atteint 10,32 milliards de dollars, soit une augmentation de 141 % par rapport au premier trimestre de 2023 et une augmentation notable de 171 % par rapport à la même période de l'année précédente. Au quatrième trimestre de l'exercice 2024, le segment des centres de données représentait plus de 83 % du chiffre d'affaires total, enregistrant une croissance simultanée de 409 %, dont 40 % étaient attribuables à des scénarios d'inférence de grands modèles, indiquant une demande robuste de puissance informatique haute performance.
Simultanément, le besoin de vastes quantités de données impose des exigences importantes en matière de stockage et de mémoire matérielle. Particulièrement pendant la phase d'entraînement du modèle, des entrées de paramètres étendues et un stockage de données sont essentiels. Les puces mémoire utilisées dans les serveurs AI comprennent principalement une mémoire à bande passante élevée (HBM), DRAM et SSD. Les environnements de travail des serveurs AI doivent offrir une capacité accrue, des performances améliorées, une latence réduite et des temps de réponse plus rapides. Selon les calculs de Micron, la quantité de DRAM dans les serveurs AI dépasse celle des serveurs traditionnels de huit fois, tandis que la quantité de NAND dépasse les normes des serveurs traditionnels de trois fois.
Typiquement, la puissance de calcul est principalement utilisée dans les étapes d'entraînement, de peaufinage et d'inférence des modèles d'IA, notamment pendant les phases d'entraînement et de peaufinage. En raison de l'augmentation des entrées de paramètres de données, des exigences en termes de calcul et de la demande accrue d'interconnectivité dans le calcul parallèle, il est nécessaire de disposer de matériel GPU plus puissant et interconnecté, souvent sous la forme de clusters GPU haute performance. À mesure que les grands modèles évoluent, la complexité de calcul augmente de manière linéaire, nécessitant des matériels haut de gamme supplémentaires pour répondre aux exigences de l'entraînement des modèles.
En prenant GPT-3 comme exemple, avec un scénario impliquant environ 13 millions de visites d'utilisateurs indépendants, la demande de puces correspondante dépasserait 30 000 GPU A100. Ce coût initial d'investissement atteindrait un montant stupéfiant de 800 millions de dollars, avec des coûts estimés d'inférence de modèle quotidiens totalisant environ 700 000 dollars.
Simultanément, les rapports de l'industrie indiquent qu'au quatrième trimestre de 2023, l'approvisionnement en GPU de NVIDIA était fortement restreint à l'échelle mondiale, entraînant un déséquilibre notable entre l'offre et la demande sur les marchés mondiaux. La capacité de production de NVIDIA était limitée par des facteurs tels que TSMC, HBM, l'emballage CoWos, et le "problème de pénurie grave" du GPU H100 devrait persister au moins jusqu'à la fin de 2024.
Par conséquent, la demande croissante de GPU haut de gamme et les contraintes d'approvisionnement ont fait grimper en flèche les prix des composants matériels actuels tels que les GPU. En particulier pour des entreprises comme NVIDIA qui occupent une position centrale dans la chaîne industrielle, les prix élevés sont encore augmentés par leur domination monopolistique, ce qui leur permet de récolter des dividendes de valeur supplémentaires. Par exemple, le coût matériel de la carte accélératrice IA H100 de NVIDIA est d'environ 3 000 dollars, mais son prix de vente a atteint environ 35 000 dollars mi-2023 et a même dépassé les 40 000 dollars sur eBay.
Un rapport de Grand View Research indique que la taille du marché mondial de l'IA cloud était estimée à 62,63 milliards de dollars en 2023, avec une projection à 647,6 milliards de dollars d'ici 2030, et un taux de croissance annuel composé de 39,6%. Ces chiffres soulignent le potentiel de croissance significatif des services d'IA cloud et leur contribution substantielle à l'ensemble de la chaîne de l'industrie de l'IA.
Selon les estimations de a16z, une partie substantielle des fonds du marché de l'AIGC (IA et informatique mondiale) finit par affluer vers les entreprises d'infrastructure. En moyenne, les entreprises d'application allouent environ 20 à 40 % de leur chiffre d'affaires à l'inférence et au peaufinage pour chaque client. Ces dépenses sont généralement dirigées vers le fournisseur de cloud de l'instance de calcul ou un fournisseur de modèle tiers, qui à son tour consacre environ la moitié du chiffre d'affaires à l'infrastructure cloud. Par conséquent, il est raisonnable de supposer que 10 à 20 % du chiffre d'affaires total généré par l'AIGC est canalisé vers les fournisseurs de cloud.
De plus, une part significative de la demande en puissance de calcul est centrée sur la formation de grands modèles d'IA, y compris divers modèles LLM étendus. En particulier pour les startups de modèles, 80 à 90 % des coûts sont attribués à la puissance de calcul de l'IA. Collectivement, l'infrastructure de calcul pour l'IA, englobant le cloud computing et le matériel, est censée représenter plus de 50 % de la valeur initiale du marché.
Comme mentionné précédemment, le coût actuel de l'informatique centralisée en IA reste élevé, principalement en raison de la demande croissante d'infrastructures haute performance pour la formation en IA. Cependant, une quantité importante de puissance informatique inutilisée existe sur le marché, ce qui entraîne un déséquilibre entre l'offre et la demande. Les principaux facteurs contribuant à ce déséquilibre sont les suivants :
En réponse aux défis énoncés ci-dessus, la poursuite de la conception de puces hautes performances ou de puces ASIC spécialisées adaptées aux tâches d'IA est une voie importante explorée par de nombreux développeurs et grandes entreprises. Une autre approche implique l'utilisation complète des ressources informatiques existantes pour établir un réseau informatique distribué, visant à réduire les coûts de puissance de calcul grâce à la location, au partage et à une planification efficace des ressources. De plus, le marché héberge actuellement un surplus de GPU et de CPU grand public inutilisés. Bien que les unités individuelles puissent manquer de puissance de calcul robuste, elles peuvent répondre efficacement aux besoins de calcul existants dans des scénarios spécifiques ou lorsqu'elles sont intégrées à des puces hautes performances. Il est essentiel de garantir un approvisionnement suffisant, car les coûts peuvent être encore réduits grâce à une planification du réseau distribué.
Par conséquent, le passage vers une puissance informatique distribuée s'est imposé comme une direction clé dans le développement de l'infrastructure IA. En même temps, compte tenu de l'alignement conceptuel entre Web3 et les systèmes distribués, les réseaux de puissance informatique décentralisée sont devenus un axe principal dans le paysage de l'infrastructure Web3+IA. Actuellement, les plateformes de puissance informatique décentralisée sur le marché Web3 proposent généralement des prix de 80 % à 90 % inférieurs à ceux des services de cloud computing centralisés.
Alors que le stockage joue un rôle vital dans l'infrastructure de l'IA, le stockage centralisé présente des avantages distincts en termes d'échelle, d'utilisabilité et de faible latence. Cependant, en raison des efficacités de coûts notables qu'ils offrent, les réseaux informatiques distribués ont un potentiel de marché significatif et sont susceptibles de tirer des avantages substantiels de l'expansion du marché florissant de l'IA.
Le secteur de l'infrastructure AI distribuée présente une demande robuste et d'importantes perspectives de croissance à long terme, ce qui en fait un domaine attractif pour le capital d'investissement. Actuellement, les principaux projets au sein de la couche d'infrastructure de l'industrie AI+Web3 se concentrent principalement sur les réseaux informatiques décentralisés. Ces projets mettent en avant les faibles coûts comme avantage clé, utilisent des incitations token pour étendre leurs réseaux et donnent la priorité à la clientèle AI+Web3 comme objectif principal. Ce secteur comprend principalement deux niveaux clés :
Offrant des services à des prix plus compétitifs que les services de cloud computing centralisés, tout en maintenant des installations de support et des expériences utilisateur comparables, ce projet a attiré l'attention de investisseurs de renom. Cependant, la complexité technique accrue pose un défi significatif. Actuellement, le projet est dans la phase narrative et de développement, sans produit entièrement lancé à ce jour.
Render Network est une plate-forme mondiale de rendu basée sur la blockchain qui exploite des GPU distribués pour offrir aux créateurs des services de rendu 3D rentables et efficaces. À la confirmation des résultats de rendu par le créateur, le réseau blockchain envoie des récompenses en jetons aux nœuds. La plate-forme propose un réseau de planification et d'allocation de GPU distribués, attribuant des tâches en fonction de l'utilisation des nœuds, de la réputation et d'autres facteurs pour optimiser l'efficacité de calcul, minimiser les ressources inutilisées et réduire les dépenses.
Le jeton natif de la plateforme, RNDR, sert de devise de paiement au sein de l'écosystème. Les utilisateurs peuvent utiliser RNDR pour régler les frais de service de rendu, tandis que les prestataires de services gagnent des récompenses RNDR en contribuant à la puissance de calcul pour accomplir les tâches de rendu. La tarification des services de rendu est ajustée dynamiquement en réponse à l'utilisation actuelle du réseau et à d'autres mesures pertinentes.
Le rendu s'avère être un cas d'utilisation bien adapté et établi pour l'architecture de puissance informatique distribuée. La nature des tâches de rendu permet leur segmentation en plusieurs sous-tâches exécutées en parallèle, minimisant la communication et l'interaction inter-tâches. Cette approche atténue les inconvénients de l'architecture informatique distribuée tout en exploitant le vaste réseau de nœuds GPU pour générer des économies de coûts.
La demande pour le réseau Render est importante, les utilisateurs ayant rendu plus de 16 millions de trames et près de 500 000 scènes sur la plateforme depuis sa création en 2017. Le volume des tâches de rendu et des nœuds actifs ne cesse d'augmenter. De plus, au cours du premier trimestre 2023, Render Network a introduit un ensemble d'outils AI de stabilité intégré de manière native, permettant aux utilisateurs d'incorporer des opérations de diffusion stable. Cette expansion au-delà des opérations de rendu signifie un mouvement stratégique dans le domaine des applications AI.
Gensyn opère en tant que cluster de supercalcul mondial spécialisé dans le calcul en profondeur, utilisant le protocole L1 de Polkadot. En 2023, la plateforme a sécurisé 43 millions de dollars de financement de série A, dirigés par a16z. Le cadre architectural de Gensyn s'étend au-delà du cluster de puissance de calcul distribué de l'infrastructure pour englober un système de vérification de couche supérieure. Ce système garantit que les calculs étendus hors chaîne sont conformes aux exigences en chaîne grâce à une vérification de la blockchain, établissant un réseau d'apprentissage automatique sans confiance.
En ce qui concerne la puissance informatique distribuée, Gensyn accueille un éventail d'appareils, des centres de données avec une capacité excédentaire aux ordinateurs portables personnels dotés de GPU potentiels. Il unit ces appareils dans un cluster virtuel unifié accessible aux développeurs pour une utilisation pair à pair à la demande. Gensyn vise à établir un marché où les prix sont dictés par les forces du marché, favorisant l'inclusivité et permettant aux coûts de calcul ML d'atteindre des niveaux équitables.
Le système de vérification constitue un concept central pour Gensyn, visant à valider l'exactitude des tâches d'apprentissage automatique telles que spécifiées. Il introduit une approche de vérification innovante comprenant une preuve d'apprentissage probabiliste, un protocole de positionnement précis basé sur un graphe et Truebit. Ces caractéristiques techniques fondamentales du jeu incitatif offrent une efficacité accrue par rapport aux méthodes traditionnelles de validation de la blockchain. Les participants du réseau comprennent les soumissionnaires, les résolveurs, les vérificateurs et les lanceurs d'alerte, facilitant collectivement le processus de vérification.
Basé sur les données de test détaillées dans le livre blanc du protocole Gensyn, les avantages notables de la plateforme incluent :
Cependant, en même temps, la puissance de calcul distribuée introduit une augmentation inévitable du temps d'entraînement par rapport à l'entraînement local, attribuée aux défis de communication et de réseau. Sur la base des données de test, le protocole Gensyn entraîne un surcoût de temps d'environ 46% dans l'entraînement du modèle.
Akash Network fonctionne comme une plateforme de cloud computing distribué qui intègre divers éléments techniques pour permettre aux utilisateurs de déployer et gérer efficacement des applications au sein d'un environnement de cloud décentralisé. En essence, il offre aux utilisateurs la capacité de louer des ressources informatiques distribuées.
Au cœur d'Akash se trouve un réseau de fournisseurs de services d'infrastructure dispersés à l'échelle mondiale, offrant des ressources CPU, GPU, mémoire et stockage. Ces fournisseurs fournissent des ressources pour la location par l'utilisateur via le cluster Kubernetes supérieur. Les utilisateurs peuvent déployer des applications sous forme de conteneurs Docker pour tirer parti de services d'infrastructure rentables. De plus, Akash met en œuvre une approche d'"enchères inversées" pour faire encore baisser les prix des ressources. Selon les estimations du site officiel d'Akash, les coûts de service de la plateforme sont environ 80% inférieurs à ceux des serveurs centralisés.
io.net se présente comme un réseau informatique décentralisé qui relie des GPU distribués mondialement pour fournir un support computationnel pour la formation et le raisonnement des modèles d'IA. Récemment, après avoir conclu une levée de fonds de série A de 30 millions de dollars, la plateforme affiche désormais une valorisation de 1 milliard de dollars.
Distingué des plateformes comme Render et Akash, io.net émerge comme un réseau informatique décentralisé robuste et évolutif, étroitement lié à plusieurs niveaux d'outils de développement. Ses principales caractéristiques comprennent :
En ce qui concerne la tarification, le site officiel de io.net estime que ses tarifs seront environ 90% inférieurs à ceux des services de cloud computing centralisés.
De plus, le jeton natif de io.net, IO coin, servira principalement de mécanisme de paiement et de récompenses au sein de l'écosystème. En outre, les demandeurs peuvent adopter un modèle similaire à Helium en convertissant IO coin en la devise stable "points IOSD" pour les transactions.
Cet article est repris de [GateWanxiang Blockchain], le titre original est « AI+Web3 Future Development Road (2) ) : Infrastructure », le droit d’auteur appartient à l’auteur original [Blockchain Wanxiang]. If there are objections to this reprint, please contact the Gate Learn Équipe, et ils s'en occuperont rapidement.
Responsabilité de non-responsabilité : Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent pas des conseils en investissement.
Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sans mentionner Gate.io, l'article traduit ne peut être reproduit, distribué ou plagié.