230k GPU, dont 30k GB200, sont opérationnels pour entraîner Grok dans un supercluster unique appelé Colossus 1 ( l'inférence est effectuée par nos fournisseurs de cloud ).
Au Colossus 2, le premier lot de 550k GB200 et GB300, également pour la formation, commence à être mis en ligne dans quelques semaines.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
6
Partager
Commentaire
0/400
BearMarketBarber
· Il y a 11h
Est-ce que Ma Yilong joue aussi gros que ça ?
Voir l'originalRépondre0
wrekt_but_learning
· Il y a 11h
C'est ici que tu veux frimer, n'est-ce pas ?
Voir l'originalRépondre0
SchrodingerWallet
· Il y a 11h
Elon Musk est vraiment impitoyable.
Voir l'originalRépondre0
AirdropChaser
· Il y a 11h
Brûler de l'argent jusqu'au ciel.
Voir l'originalRépondre0
MissedAirdropBro
· Il y a 12h
Ma Yilong est vraiment riche.
Voir l'originalRépondre0
NewPumpamentals
· Il y a 12h
Il y a tellement de cartes à entraîner, c'est dur !
230k GPU, dont 30k GB200, sont opérationnels pour entraîner Grok dans un supercluster unique appelé Colossus 1 ( l'inférence est effectuée par nos fournisseurs de cloud ).
Au Colossus 2, le premier lot de 550k GB200 et GB300, également pour la formation, commence à être mis en ligne dans quelques semaines.
En tant que Jensen