Con $30 millones en financiamiento y respaldado por capital de primer nivel como Hack VC, Multicoin Capital, Delphi Digital y Solana Lab, io.net no parece ser muy 'de base'. Las etiquetas de potencia computacional de GPU y revolución de IA están lejos de ser realistas, a menudo asociadas con connotaciones de alta gama.
Sin embargo, en medio de las bulliciosas discusiones comunitarias, a menudo se pasan por alto pistas cruciales, especialmente en lo que respecta a la profunda transformación que io.net podría traer a la red de potencia informática global. A diferencia de la posición "elite" de AWS, Azure y GCP, io.net sigue esencialmente una ruta populista:
Su objetivo es complementar la demanda de potencia informática "mid-tail + long-tail" ignorada mediante la agregación de recursos de GPU inactivos. Al crear una red informática distribuida descentralizada de calidad empresarial, io.net potencia a una gama más amplia de usuarios pequeños y medianos con innovación en IA. Logra una "re-liberación de productividad" de bajo costo y altamente flexible para la innovación en IA a nivel mundial.
¿Cuál es el recurso principal de productividad en la actual ola de IA y en la futura era de la economía digital?
Indudablemente, es potencia computacional.
Según datos de Precedence Research, se espera que el mercado global de hardware de inteligencia artificial crezca a una tasa de crecimiento anual compuesta (CAGR) del 24.3%, superando los $473.53 mil millones para el 2033.
Incluso dejando de lado estas cifras predictivas, desde perspectivas lógicas tanto incrementales como de stock, es evidente que dos contradicciones principales persistirán en el futuro desarrollo del mercado de potencia computacional:
En primer lugar, en la dimensión incremental, aparte de la rápida expansión de los modelos de contenido generado por IA (AIGC), numerosos escenarios de IA en sus primeras etapas explosivas, como la salud, la educación y la conducción inteligente, están desarrollándose rápidamente. Todos estos escenarios requieren vastos recursos de computación. Por lo tanto, la escasez actual en el mercado de recursos de potencia computacional de GPU no solo persistirá, sino que también continuará expandiéndose.
En otras palabras, desde una perspectiva de oferta y demanda, en un futuro previsible, la demanda del mercado de potencia computacional sin duda superará ampliamente la oferta. Se espera que la curva de demanda muestre una tendencia exponencial al alza a corto plazo.
En el lado de la oferta, sin embargo, debido a las leyes físicas y a los factores prácticos de producción, ya sea mejoras en la tecnología de procesos o expansiones de fábricas a gran escala, como máximo, solo se puede lograr un crecimiento lineal. Esto significa inevitablemente que la restricción de potencia computacional en el desarrollo de la IA persistirá durante mucho tiempo.
Mientras tanto, con recursos de potencia informática limitados enfrentando cuellos de botella de crecimiento severos, Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP) ocupan colectivamente más del 60% de la cuota de mercado de computación en la nube, creando un claro mercado de vendedores.
Estas empresas acaparan chips de GPU de alto rendimiento, monopolizando una gran cantidad de potencia informática. Los pequeños y medianos actores del lado de la demanda de nivel medio y largo no solo carecen de poder de negociación, sino que también tienen que lidiar con altos costos de capital, barreras de entrada KYC y términos de arrendamiento restrictivos. Además, los gigantes tradicionales de los servicios en la nube, impulsados por consideraciones de ganancias, a menudo pasan por alto las necesidades comerciales diferenciadas de los usuarios de "nivel medio + de cola larga" (como los requisitos de arrendamiento más cortos, más inmediatos y de menor escala).
En realidad, sin embargo, una gran cantidad de potencia computacional de GPU queda sin usar fuera de las redes informáticas de los gigantes de los servicios en la nube. Por ejemplo, decenas de miles de Centros de Datos de Internet (IDC) independientes a nivel mundial desperdician recursos en pequeñas tareas de entrenamiento. Esto incluye una gran cantidad de potencia computacional inactiva en granjas de minería de criptomonedas y proyectos como Filecoin, Render y Aethir.
Según las estimaciones oficiales de io.net, la tasa de inactividad de las tarjetas gráficas en los Centros de Datos de IDCs solo en los EE. UU. supera el 60%. Esto crea una paradoja irónica de desajuste entre la oferta y la demanda: más de la mitad de los recursos de potencia informática de decenas de miles de centros de datos pequeños y medianos y granjas de criptominería se desperdician diariamente, sin generar ingresos efectivos, mientras que los emprendedores de IA de nivel medio y largo plazo soportan costos elevados y barreras de entrada elevadas de los servicios informáticos de gigantes de la nube, con sus diversas necesidades innovadoras insatisfechas.
Este fuerte contraste revela la contradicción principal en el actual desarrollo global de la IA y el mercado global de potencia computacional: por un lado, la innovación en IA es generalizada y la demanda de potencia computacional continúa expandiéndose. Por otro lado, las necesidades de potencia computacional de los jugadores de nivel medio y largo plazo y los recursos de GPU inactivos no se están satisfaciendo de manera efectiva, y siguen estando fuera del actual mercado de potencia computacional.
Este problema no es solo el conflicto entre la creciente demanda de potencia computacional de los empresarios de IA y el rezago en el crecimiento de la potencia computacional. También es la falta de coincidencia entre la gran mayoría de medianos y largos empresarios de IA, operadores de potencia computacional y el desequilibrio entre la oferta y la demanda, que supera con creces el alcance de las soluciones de los proveedores de servicios en la nube centralizados.
Por lo tanto, el mercado está pidiendo nuevas soluciones. Imagina si estos operadores con potencia computacional pudieran alquilar de forma flexible su potencia de cálculo durante los tiempos inactivos. ¿No proporcionaría eso un clúster computacional de bajo costo similar a AWS?
Construir una red computacional a gran escala es extremadamente costoso. Esto ha llevado a la aparición de plataformas diseñadas específicamente para emparejar recursos computacionales inactivos con startups de inteligencia artificial pequeñas y medianas. Estas plataformas agregan recursos computacionales inactivos dispersos y los emparejan con necesidades específicas en sectores como la salud, el derecho y las finanzas para entrenar modelos pequeños y grandes.
No solo puede cumplir con las diversas necesidades de computación de la cola mediana a larga, sino que también complementa los servicios de computación de los gigantes de la nube centralizados existentes:
Gigantes de la nube con vasta potencia computacional manejan entrenamiento de modelos grandes y computación de alto rendimiento para demandas urgentes y pesadas.
Los mercados de computación en la nube descentralizada como io.net atienden a pequeños cálculos de modelos, ajuste fino de modelos grandes, implementación de inferencias y necesidades más diversificadas y de bajo costo.
En esencia, proporciona un equilibrio dinámico entre la rentabilidad y la calidad computacional, alineándose con la lógica económica de optimizar la asignación de recursos en el mercado. Así, las redes de computación distribuida como io.net ofrecen, en esencia, una solución de “IA+Crypto”. Utilizan un marco colaborativo descentralizado combinado con incentivos de tokens para satisfacer la demanda significativa pero insatisfecha en el mercado de IA de cola media a larga. Esto permite a los equipos de IA pequeños y medianos personalizar y adquirir servicios de computación GPU según sea necesario, algo que las grandes nubes no pueden proporcionar, logrando así una “liberación de productividad” en el mercado mundial de potencia computacional y desarrollo de IA.
En términos más simples, io.net no es un competidor directo de AWS, Azure o GCP. En cambio, es un aliado complementario que optimiza la asignación de recursos informáticos globales y amplía el mercado. Atienden a diferentes capas de necesidades de “eficiencia de costes y calidad computacional”. Incluso es posible que io.net, al agregar jugadores de oferta y demanda de mediana a larga cola, pueda crear una cuota de mercado comparable a la de los tres gigantes de la nube existentes.
io.net tiene como objetivo remodelar las relaciones de producción del mercado de potencia informática de cola media y larga a través de la colaboración distribuida de Web3 e incentivos de tokens. Como resultado, se asemeja a plataformas de economía compartida como Uber y Didi, funcionando como una plataforma de intercambio de emparejamiento para la potencia informática de GPU.
Antes de la llegada de Uber y Didi, la experiencia del usuario de "solicitar un viaje a pedido" era prácticamente inexistente. La red de autos privados era vasta pero caótica, con autos inactivos y desorganizados. Para tomar un viaje, los usuarios tenían que pedir un taxi desde la calle o solicitar un despacho desde el centro de taxis de la ciudad, lo que era demoroso, altamente incierto y predominantemente un mercado de vendedores, poco amigable para la mayoría de las personas comunes.
Este escenario es similar al estado actual del mercado de potencia computacional. Como se mencionó anteriormente, los demandantes de potencia computacional pequeños y medianos de cola media y larga no solo carecen de poder de negociación, sino que también enfrentan altos costos de capital, barreras de entrada de KYC y duras condiciones de arrendamiento.
Entonces, ¿cómo logra io.net su posición como un "centro global de potencia informática GPU y mercado de emparejamiento"? ¿Qué tipo de arquitectura de sistema y servicios funcionales se necesitan para ayudar a los usuarios de mediana y larga cola a obtener recursos de potencia informática?
La característica principal de io.net es su plataforma de potencia computacional ligera. Similar a Uber o Didi, no implica la operación real de alto riesgo del hardware de GPU u otros activos pesados. En cambio, conecta la potencia informática minorista de cola media a larga (a menudo considerada potencia informática secundaria por importantes proveedores de servicios en la nube como AWS) con la demanda a través de la coincidencia, revitalizando recursos informáticos previamente inactivos (automóviles privados) y la demanda de IA de cola media para la potencia informática (pasajeros).
Por un lado, io.net conecta decenas de miles de GPUs inactivas (coches privados) de pequeños y medianos IDCs, granjas mineras y proyectos de criptomonedas. Por otro lado, enlaza las necesidades de potencia computacional de millones de pequeñas y medianas empresas (pasajeros). io.net actúa como intermediario, similar a un corredor que empareja numerosas órdenes de compra y venta.
Al agregar potencia informática inactiva a bajo costo y con configuraciones de implementación más flexibles, io.net ayuda a los emprendedores a entrenar modelos de IA pequeños y medianos más personalizados, mejorando significativamente la utilización de recursos. Las ventajas son claras: independientemente de las condiciones del mercado, siempre que haya una falta de recursos, la demanda de una plataforma correspondiente es sólida.
Tanto el lado de la oferta como el de la demanda en el rango medio tienen puntos débiles similares de poder de negociación débil y baja autonomía al enfrentarse a grandes nubes como AWS. io.net revitaliza la oferta y la demanda de la cola media y larga, proporcionando una plataforma de emparejamiento que permite a ambas partes completar transacciones a mejores precios y con configuraciones más flexibles que las principales nubes como AWS.
Desde esta perspectiva, similar a plataformas como Taobao, la aparición temprana de potencia computacional de baja calidad es un patrón de desarrollo inevitable de la economía de plataformas. io.net también ha establecido un sistema de reputación tanto para proveedores como para demandantes, acumulando puntuaciones basadas en el rendimiento computacional y la participación en la red para ganar recompensas o descuentos.
Además de ser una plataforma de coincidencia entre la oferta y la demanda minorista, io.net aborda las necesidades de escenarios informáticos a gran escala, como los requeridos por modelos modernos, que involucran múltiples GPUs trabajando juntas. La efectividad de esta plataforma depende no solo de cuántos recursos de GPU inactivos puede agregar, sino también de qué tan conectada está la potencia informática distribuida en la plataforma.
Esto significa que io.net necesita crear una arquitectura informática “descentralizada pero centralizada” para su red distribuida, que abarca recursos informáticos pequeños y medianos de diferentes regiones y escalas. Esta arquitectura debe soportar demandas de computación flexibles al permitir que varias GPUs distribuidas trabajen dentro del mismo marco para el entrenamiento, asegurando que la comunicación y coordinación entre estas GPUs sean rápidas y logren una latencia baja utilizable.
Este enfoque es fundamentalmente diferente de algunos proyectos descentralizados de computación en la nube que están limitados a usar GPUs dentro del mismo centro de datos. La realización técnica detrás de la suite de productos de io.net, conocida como los "Tres Caballos", incluye IO Cloud, IO Worker y IO Explorer.
Gracias a esta arquitectura funcional, io.net permite a los proveedores de potencia computacional compartir fácilmente recursos inactivos, reduciendo significativamente la barrera de entrada. Los demandantes pueden formar rápidamente clústeres con las GPU requeridas sin firmar contratos a largo plazo ni soportar los largos tiempos de espera comúnmente asociados con los servicios en la nube tradicionales. Esta configuración les proporciona potencia de supercomputación y tiempos de respuesta del servidor optimizados.
Al discutir los escenarios de servicio únicos de io.net en comparación con AWS y otras nubes importantes, el enfoque está en la demanda elástica ligera donde las grandes nubes pueden no ser rentables. Estos escenarios incluyen áreas de nicho como el entrenamiento de modelos para startups de IA pequeñas y medianas, el ajuste fino de grandes modelos y otras aplicaciones diversas. Un escenario comúnmente pasado por alto pero ampliamente aplicable es la inferencia de modelos.
Es bien sabido que el entrenamiento temprano de modelos grandes como GPT requiere miles de GPU de alto rendimiento, una potencia computacional inmensa y datos masivos durante períodos prolongados. Esta es un área donde AWS, GCP y otras nubes importantes tienen una clara ventaja. Sin embargo, una vez que el modelo está entrenado, la demanda computacional primaria se desplaza hacia la inferencia del modelo. Esta etapa, que implica usar el modelo entrenado para hacer predicciones o decisiones, constituye el 80%-90% de las cargas de trabajo computacionales de IA, como se ve en las interacciones diarias con GPT y modelos similares.
Curiosamente, la potencia computacional requerida para la inferencia es más estable y menos intensa, a menudo necesitando solo unas pocas docenas de GPU durante unos minutos para obtener resultados. Este proceso también tiene menores requisitos de latencia de red y concurrencia. Además, es poco probable que la mayoría de las empresas de IA capaciten sus propios modelos grandes desde cero; en cambio, tienden a optimizar y ajustar modelos de primer nivel como GPT. Estos escenarios son naturalmente adecuados para los recursos informáticos inactivos distribuidos de io.net.
Más allá de los escenarios de aplicaciones de alta intensidad y alto nivel, hay un mercado más amplio e inexplorado para escenarios cotidianos y livianos. Estos pueden parecer fragmentados pero en realidad tienen una mayor participación en el mercado. Según un informe reciente del Bank of America, la computación de alto rendimiento solo representa aproximadamente el 5% del mercado total disponible (TAM) en los centros de datos.
En resumen, no es que AWS o GCP sean inasequibles, sino que io.net ofrece una solución más rentable para estas necesidades específicas.
En última instancia, la ventaja competitiva central de plataformas como io.net, que están orientadas hacia los recursos de computación distribuida, radica en sus capacidades de desarrollo empresarial (BD). Este es el factor determinante crítico para el éxito.
Además del fenómeno en el que los chips de alto rendimiento de Nvidia han dado lugar a un mercado de corredores de GPU, el principal desafío para muchos centros de datos de Internet (IDC) pequeños y medianos y operadores de potencia informática es el problema de que "un buen vino todavía teme a los callejones profundos", lo que significa que incluso los grandes productos necesitan una promoción efectiva para ser descubiertos.
Desde esta perspectiva, io.net tiene una ventaja competitiva única que es difícil de replicar para otros proyectos en el mismo campo: un equipo dedicado de BD Web2 basado directamente en Silicon Valley. Estos veteranos tienen una amplia experiencia en el mercado de potencia computacional y comprenden los diversos escenarios de clientes pequeños y medianos. Además, tienen un profundo entendimiento de las necesidades de los usuarios finales de numerosos clientes Web2.
Según las divulgaciones oficiales de io.net, más de 20-30 empresas de Web2 ya han expresado interés en comprar o arrendar potencia computacional. Estas empresas están dispuestas a explorar o incluso experimentar con servicios informáticos más económicos y flexibles (algunas ni siquiera pueden asegurar potencia computacional en AWS). Cada uno de estos clientes requiere al menos cientos a miles de GPUs, lo que se traduce en pedidos de potencia computacional por valor de decenas de miles de dólares al mes.
Esta demanda genuina de los usuarios finales pagadores atraerá esencialmente más recursos de potencia informática inactivos para fluir de manera proactiva en el lado de la oferta, lo que fácilmente llevará a un?
Con $30 millones en financiamiento y respaldado por capital de primer nivel como Hack VC, Multicoin Capital, Delphi Digital y Solana Lab, io.net no parece ser muy 'de base'. Las etiquetas de potencia computacional de GPU y revolución de IA están lejos de ser realistas, a menudo asociadas con connotaciones de alta gama.
Sin embargo, en medio de las bulliciosas discusiones comunitarias, a menudo se pasan por alto pistas cruciales, especialmente en lo que respecta a la profunda transformación que io.net podría traer a la red de potencia informática global. A diferencia de la posición "elite" de AWS, Azure y GCP, io.net sigue esencialmente una ruta populista:
Su objetivo es complementar la demanda de potencia informática "mid-tail + long-tail" ignorada mediante la agregación de recursos de GPU inactivos. Al crear una red informática distribuida descentralizada de calidad empresarial, io.net potencia a una gama más amplia de usuarios pequeños y medianos con innovación en IA. Logra una "re-liberación de productividad" de bajo costo y altamente flexible para la innovación en IA a nivel mundial.
¿Cuál es el recurso principal de productividad en la actual ola de IA y en la futura era de la economía digital?
Indudablemente, es potencia computacional.
Según datos de Precedence Research, se espera que el mercado global de hardware de inteligencia artificial crezca a una tasa de crecimiento anual compuesta (CAGR) del 24.3%, superando los $473.53 mil millones para el 2033.
Incluso dejando de lado estas cifras predictivas, desde perspectivas lógicas tanto incrementales como de stock, es evidente que dos contradicciones principales persistirán en el futuro desarrollo del mercado de potencia computacional:
En primer lugar, en la dimensión incremental, aparte de la rápida expansión de los modelos de contenido generado por IA (AIGC), numerosos escenarios de IA en sus primeras etapas explosivas, como la salud, la educación y la conducción inteligente, están desarrollándose rápidamente. Todos estos escenarios requieren vastos recursos de computación. Por lo tanto, la escasez actual en el mercado de recursos de potencia computacional de GPU no solo persistirá, sino que también continuará expandiéndose.
En otras palabras, desde una perspectiva de oferta y demanda, en un futuro previsible, la demanda del mercado de potencia computacional sin duda superará ampliamente la oferta. Se espera que la curva de demanda muestre una tendencia exponencial al alza a corto plazo.
En el lado de la oferta, sin embargo, debido a las leyes físicas y a los factores prácticos de producción, ya sea mejoras en la tecnología de procesos o expansiones de fábricas a gran escala, como máximo, solo se puede lograr un crecimiento lineal. Esto significa inevitablemente que la restricción de potencia computacional en el desarrollo de la IA persistirá durante mucho tiempo.
Mientras tanto, con recursos de potencia informática limitados enfrentando cuellos de botella de crecimiento severos, Amazon Web Services (AWS), Microsoft Azure y Google Cloud Platform (GCP) ocupan colectivamente más del 60% de la cuota de mercado de computación en la nube, creando un claro mercado de vendedores.
Estas empresas acaparan chips de GPU de alto rendimiento, monopolizando una gran cantidad de potencia informática. Los pequeños y medianos actores del lado de la demanda de nivel medio y largo no solo carecen de poder de negociación, sino que también tienen que lidiar con altos costos de capital, barreras de entrada KYC y términos de arrendamiento restrictivos. Además, los gigantes tradicionales de los servicios en la nube, impulsados por consideraciones de ganancias, a menudo pasan por alto las necesidades comerciales diferenciadas de los usuarios de "nivel medio + de cola larga" (como los requisitos de arrendamiento más cortos, más inmediatos y de menor escala).
En realidad, sin embargo, una gran cantidad de potencia computacional de GPU queda sin usar fuera de las redes informáticas de los gigantes de los servicios en la nube. Por ejemplo, decenas de miles de Centros de Datos de Internet (IDC) independientes a nivel mundial desperdician recursos en pequeñas tareas de entrenamiento. Esto incluye una gran cantidad de potencia computacional inactiva en granjas de minería de criptomonedas y proyectos como Filecoin, Render y Aethir.
Según las estimaciones oficiales de io.net, la tasa de inactividad de las tarjetas gráficas en los Centros de Datos de IDCs solo en los EE. UU. supera el 60%. Esto crea una paradoja irónica de desajuste entre la oferta y la demanda: más de la mitad de los recursos de potencia informática de decenas de miles de centros de datos pequeños y medianos y granjas de criptominería se desperdician diariamente, sin generar ingresos efectivos, mientras que los emprendedores de IA de nivel medio y largo plazo soportan costos elevados y barreras de entrada elevadas de los servicios informáticos de gigantes de la nube, con sus diversas necesidades innovadoras insatisfechas.
Este fuerte contraste revela la contradicción principal en el actual desarrollo global de la IA y el mercado global de potencia computacional: por un lado, la innovación en IA es generalizada y la demanda de potencia computacional continúa expandiéndose. Por otro lado, las necesidades de potencia computacional de los jugadores de nivel medio y largo plazo y los recursos de GPU inactivos no se están satisfaciendo de manera efectiva, y siguen estando fuera del actual mercado de potencia computacional.
Este problema no es solo el conflicto entre la creciente demanda de potencia computacional de los empresarios de IA y el rezago en el crecimiento de la potencia computacional. También es la falta de coincidencia entre la gran mayoría de medianos y largos empresarios de IA, operadores de potencia computacional y el desequilibrio entre la oferta y la demanda, que supera con creces el alcance de las soluciones de los proveedores de servicios en la nube centralizados.
Por lo tanto, el mercado está pidiendo nuevas soluciones. Imagina si estos operadores con potencia computacional pudieran alquilar de forma flexible su potencia de cálculo durante los tiempos inactivos. ¿No proporcionaría eso un clúster computacional de bajo costo similar a AWS?
Construir una red computacional a gran escala es extremadamente costoso. Esto ha llevado a la aparición de plataformas diseñadas específicamente para emparejar recursos computacionales inactivos con startups de inteligencia artificial pequeñas y medianas. Estas plataformas agregan recursos computacionales inactivos dispersos y los emparejan con necesidades específicas en sectores como la salud, el derecho y las finanzas para entrenar modelos pequeños y grandes.
No solo puede cumplir con las diversas necesidades de computación de la cola mediana a larga, sino que también complementa los servicios de computación de los gigantes de la nube centralizados existentes:
Gigantes de la nube con vasta potencia computacional manejan entrenamiento de modelos grandes y computación de alto rendimiento para demandas urgentes y pesadas.
Los mercados de computación en la nube descentralizada como io.net atienden a pequeños cálculos de modelos, ajuste fino de modelos grandes, implementación de inferencias y necesidades más diversificadas y de bajo costo.
En esencia, proporciona un equilibrio dinámico entre la rentabilidad y la calidad computacional, alineándose con la lógica económica de optimizar la asignación de recursos en el mercado. Así, las redes de computación distribuida como io.net ofrecen, en esencia, una solución de “IA+Crypto”. Utilizan un marco colaborativo descentralizado combinado con incentivos de tokens para satisfacer la demanda significativa pero insatisfecha en el mercado de IA de cola media a larga. Esto permite a los equipos de IA pequeños y medianos personalizar y adquirir servicios de computación GPU según sea necesario, algo que las grandes nubes no pueden proporcionar, logrando así una “liberación de productividad” en el mercado mundial de potencia computacional y desarrollo de IA.
En términos más simples, io.net no es un competidor directo de AWS, Azure o GCP. En cambio, es un aliado complementario que optimiza la asignación de recursos informáticos globales y amplía el mercado. Atienden a diferentes capas de necesidades de “eficiencia de costes y calidad computacional”. Incluso es posible que io.net, al agregar jugadores de oferta y demanda de mediana a larga cola, pueda crear una cuota de mercado comparable a la de los tres gigantes de la nube existentes.
io.net tiene como objetivo remodelar las relaciones de producción del mercado de potencia informática de cola media y larga a través de la colaboración distribuida de Web3 e incentivos de tokens. Como resultado, se asemeja a plataformas de economía compartida como Uber y Didi, funcionando como una plataforma de intercambio de emparejamiento para la potencia informática de GPU.
Antes de la llegada de Uber y Didi, la experiencia del usuario de "solicitar un viaje a pedido" era prácticamente inexistente. La red de autos privados era vasta pero caótica, con autos inactivos y desorganizados. Para tomar un viaje, los usuarios tenían que pedir un taxi desde la calle o solicitar un despacho desde el centro de taxis de la ciudad, lo que era demoroso, altamente incierto y predominantemente un mercado de vendedores, poco amigable para la mayoría de las personas comunes.
Este escenario es similar al estado actual del mercado de potencia computacional. Como se mencionó anteriormente, los demandantes de potencia computacional pequeños y medianos de cola media y larga no solo carecen de poder de negociación, sino que también enfrentan altos costos de capital, barreras de entrada de KYC y duras condiciones de arrendamiento.
Entonces, ¿cómo logra io.net su posición como un "centro global de potencia informática GPU y mercado de emparejamiento"? ¿Qué tipo de arquitectura de sistema y servicios funcionales se necesitan para ayudar a los usuarios de mediana y larga cola a obtener recursos de potencia informática?
La característica principal de io.net es su plataforma de potencia computacional ligera. Similar a Uber o Didi, no implica la operación real de alto riesgo del hardware de GPU u otros activos pesados. En cambio, conecta la potencia informática minorista de cola media a larga (a menudo considerada potencia informática secundaria por importantes proveedores de servicios en la nube como AWS) con la demanda a través de la coincidencia, revitalizando recursos informáticos previamente inactivos (automóviles privados) y la demanda de IA de cola media para la potencia informática (pasajeros).
Por un lado, io.net conecta decenas de miles de GPUs inactivas (coches privados) de pequeños y medianos IDCs, granjas mineras y proyectos de criptomonedas. Por otro lado, enlaza las necesidades de potencia computacional de millones de pequeñas y medianas empresas (pasajeros). io.net actúa como intermediario, similar a un corredor que empareja numerosas órdenes de compra y venta.
Al agregar potencia informática inactiva a bajo costo y con configuraciones de implementación más flexibles, io.net ayuda a los emprendedores a entrenar modelos de IA pequeños y medianos más personalizados, mejorando significativamente la utilización de recursos. Las ventajas son claras: independientemente de las condiciones del mercado, siempre que haya una falta de recursos, la demanda de una plataforma correspondiente es sólida.
Tanto el lado de la oferta como el de la demanda en el rango medio tienen puntos débiles similares de poder de negociación débil y baja autonomía al enfrentarse a grandes nubes como AWS. io.net revitaliza la oferta y la demanda de la cola media y larga, proporcionando una plataforma de emparejamiento que permite a ambas partes completar transacciones a mejores precios y con configuraciones más flexibles que las principales nubes como AWS.
Desde esta perspectiva, similar a plataformas como Taobao, la aparición temprana de potencia computacional de baja calidad es un patrón de desarrollo inevitable de la economía de plataformas. io.net también ha establecido un sistema de reputación tanto para proveedores como para demandantes, acumulando puntuaciones basadas en el rendimiento computacional y la participación en la red para ganar recompensas o descuentos.
Además de ser una plataforma de coincidencia entre la oferta y la demanda minorista, io.net aborda las necesidades de escenarios informáticos a gran escala, como los requeridos por modelos modernos, que involucran múltiples GPUs trabajando juntas. La efectividad de esta plataforma depende no solo de cuántos recursos de GPU inactivos puede agregar, sino también de qué tan conectada está la potencia informática distribuida en la plataforma.
Esto significa que io.net necesita crear una arquitectura informática “descentralizada pero centralizada” para su red distribuida, que abarca recursos informáticos pequeños y medianos de diferentes regiones y escalas. Esta arquitectura debe soportar demandas de computación flexibles al permitir que varias GPUs distribuidas trabajen dentro del mismo marco para el entrenamiento, asegurando que la comunicación y coordinación entre estas GPUs sean rápidas y logren una latencia baja utilizable.
Este enfoque es fundamentalmente diferente de algunos proyectos descentralizados de computación en la nube que están limitados a usar GPUs dentro del mismo centro de datos. La realización técnica detrás de la suite de productos de io.net, conocida como los "Tres Caballos", incluye IO Cloud, IO Worker y IO Explorer.
Gracias a esta arquitectura funcional, io.net permite a los proveedores de potencia computacional compartir fácilmente recursos inactivos, reduciendo significativamente la barrera de entrada. Los demandantes pueden formar rápidamente clústeres con las GPU requeridas sin firmar contratos a largo plazo ni soportar los largos tiempos de espera comúnmente asociados con los servicios en la nube tradicionales. Esta configuración les proporciona potencia de supercomputación y tiempos de respuesta del servidor optimizados.
Al discutir los escenarios de servicio únicos de io.net en comparación con AWS y otras nubes importantes, el enfoque está en la demanda elástica ligera donde las grandes nubes pueden no ser rentables. Estos escenarios incluyen áreas de nicho como el entrenamiento de modelos para startups de IA pequeñas y medianas, el ajuste fino de grandes modelos y otras aplicaciones diversas. Un escenario comúnmente pasado por alto pero ampliamente aplicable es la inferencia de modelos.
Es bien sabido que el entrenamiento temprano de modelos grandes como GPT requiere miles de GPU de alto rendimiento, una potencia computacional inmensa y datos masivos durante períodos prolongados. Esta es un área donde AWS, GCP y otras nubes importantes tienen una clara ventaja. Sin embargo, una vez que el modelo está entrenado, la demanda computacional primaria se desplaza hacia la inferencia del modelo. Esta etapa, que implica usar el modelo entrenado para hacer predicciones o decisiones, constituye el 80%-90% de las cargas de trabajo computacionales de IA, como se ve en las interacciones diarias con GPT y modelos similares.
Curiosamente, la potencia computacional requerida para la inferencia es más estable y menos intensa, a menudo necesitando solo unas pocas docenas de GPU durante unos minutos para obtener resultados. Este proceso también tiene menores requisitos de latencia de red y concurrencia. Además, es poco probable que la mayoría de las empresas de IA capaciten sus propios modelos grandes desde cero; en cambio, tienden a optimizar y ajustar modelos de primer nivel como GPT. Estos escenarios son naturalmente adecuados para los recursos informáticos inactivos distribuidos de io.net.
Más allá de los escenarios de aplicaciones de alta intensidad y alto nivel, hay un mercado más amplio e inexplorado para escenarios cotidianos y livianos. Estos pueden parecer fragmentados pero en realidad tienen una mayor participación en el mercado. Según un informe reciente del Bank of America, la computación de alto rendimiento solo representa aproximadamente el 5% del mercado total disponible (TAM) en los centros de datos.
En resumen, no es que AWS o GCP sean inasequibles, sino que io.net ofrece una solución más rentable para estas necesidades específicas.
En última instancia, la ventaja competitiva central de plataformas como io.net, que están orientadas hacia los recursos de computación distribuida, radica en sus capacidades de desarrollo empresarial (BD). Este es el factor determinante crítico para el éxito.
Además del fenómeno en el que los chips de alto rendimiento de Nvidia han dado lugar a un mercado de corredores de GPU, el principal desafío para muchos centros de datos de Internet (IDC) pequeños y medianos y operadores de potencia informática es el problema de que "un buen vino todavía teme a los callejones profundos", lo que significa que incluso los grandes productos necesitan una promoción efectiva para ser descubiertos.
Desde esta perspectiva, io.net tiene una ventaja competitiva única que es difícil de replicar para otros proyectos en el mismo campo: un equipo dedicado de BD Web2 basado directamente en Silicon Valley. Estos veteranos tienen una amplia experiencia en el mercado de potencia computacional y comprenden los diversos escenarios de clientes pequeños y medianos. Además, tienen un profundo entendimiento de las necesidades de los usuarios finales de numerosos clientes Web2.
Según las divulgaciones oficiales de io.net, más de 20-30 empresas de Web2 ya han expresado interés en comprar o arrendar potencia computacional. Estas empresas están dispuestas a explorar o incluso experimentar con servicios informáticos más económicos y flexibles (algunas ni siquiera pueden asegurar potencia computacional en AWS). Cada uno de estos clientes requiere al menos cientos a miles de GPUs, lo que se traduce en pedidos de potencia computacional por valor de decenas de miles de dólares al mes.
Esta demanda genuina de los usuarios finales pagadores atraerá esencialmente más recursos de potencia informática inactivos para fluir de manera proactiva en el lado de la oferta, lo que fácilmente llevará a un?