230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar o Grok em um único supercluster chamado Colossus 1 ( a inferência é feita pelos nossos provedores de nuvem ).
No Colossus 2, o primeiro lote de 550k GB200s & GB300s, também para formação, começará a ficar online dentro de algumas semanas.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
230 mil GPUs, incluindo 30 mil GB200s, estão operacionais para treinar o Grok em um único supercluster chamado Colossus 1 ( a inferência é feita pelos nossos provedores de nuvem ).
No Colossus 2, o primeiro lote de 550k GB200s & GB300s, também para formação, começará a ficar online dentro de algumas semanas.
Como Jensen