230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar o Grok em um único supercluster chamado Colossus 1 ( a inferência é feita pelos nossos provedores de nuvem ).
No Colossus 2, o primeiro lote de 550k GB200s & GB300s, também para formação, começará a ficar online dentro de algumas semanas.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar o Grok em um único supercluster chamado Colossus 1 ( a inferência é feita pelos nossos provedores de nuvem ).
No Colossus 2, o primeiro lote de 550k GB200s & GB300s, também para formação, começará a ficar online dentro de algumas semanas.
Como Jensen