230k GPUs, incluyendo 30k GB200s, están operativos para entrenar Grok en un único superclúster llamado Colossus 1 (la inferencia es realizada por nuestros proveedores de nube).
En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comenzará a estar en línea en unas pocas semanas.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
230k GPUs, incluyendo 30k GB200s, están operativos para entrenar Grok en un único superclúster llamado Colossus 1 (la inferencia es realizada por nuestros proveedores de nube).
En Colossus 2, el primer lote de 550k GB200s y GB300s, también para entrenamiento, comenzará a estar en línea en unas pocas semanas.
Como Jensen