Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), motor (modelos) y energía (potencia de cálculo), todos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha atravesado etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados ( y ciertas plataformas de potencia de cálculo descentralizadas ), enfatizando comúnmente la lógica de crecimiento extensivo de "competencia de potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia de recursos básicos a la construcción de un nivel medio con mayor sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de un entrenamiento puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que utiliza un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos especializados de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos del dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que el SLM no será integrado en el peso del LLM, sino que colaborará con el LLM a través de la arquitectura de Agentes, el sistema de plugins para el enrutamiento dinámico, la conectividad en caliente del módulo LoRA, y el RAG (generación aumentada por recuperación). Esta arquitectura mantiene la capacidad de cobertura amplia del LLM, al mismo tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente compuesto altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
La barrera técnica es demasiado alta: la escala de datos, los recursos de cómputo y la capacidad de ingeniería requeridos para entrenar un Modelo Fundamental son extremadamente grandes, actualmente solo las grandes empresas tecnológicas de EE. UU. (como OpenAI) y China (como DeepSeek) tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos de base como LLaMA y Mixtral ya están disponibles como código abierto, la clave para impulsar verdaderamente los avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en la capa del modelo central es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la industria de IA, se manifiesta en dos direcciones clave:
Capa de verificación confiable: a través del registro en la cadena de los caminos generados por el modelo, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar la carga de datos, la invocación de modelos y la ejecución de agentes, construyendo un ciclo positivo de entrenamiento y servicio del modelo.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de enfoque viables de los proyectos de Crypto AI basados en modelos se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de AI.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de los modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la elaboración de reglas y en la iteración, perfeccionando la estructura de gobernanza descentralizada.
Dos, Resumen del proyecto | La visión de la cadena de AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno operativo de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena basados en sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de distribución de beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programación, puede utilizar LoRA para ajustar y entrenar modelos personalizados basados en LLM de código abierto y desplegarlos;
OpenLoRA: admite la coexistencia de miles de modelos, carga dinámica bajo demanda, reduce significativamente los costos de implementación;
PoA (Prueba de Atribución): Medición de contribuciones y distribución de recompensas a través del registro de llamadas en la cadena;
Datanets: redes de datos estructurados orientadas a escenarios verticales, construidas y validadas por la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, construyendo un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila tecnológica de Optimism, soporta alta capacidad de procesamiento y ejecución de bajos costos;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
EVM compatible: Facilita a los desarrolladores desplegar y expandir rápidamente basándose en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y asegura la verificabilidad de los datos.
En comparación con cadenas de IA generales como NEAR, que se centran más en la capa base y promueven la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas de IA específicas orientadas a datos e incentivos de modelos. Su objetivo es lograr que el desarrollo y la llamada de modelos se realicen en la cadena con un ciclo de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando ciertas plataformas de alojamiento de modelos al estilo de plataformas de hospedaje, ciertos cobros de uso al estilo de plataformas de pago y ciertos interfaces de blockchain al estilo de plataformas de servicios de infraestructura en la cadena, promoviendo así el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento y el despliegue del modelo, cuyo proceso central incluye:
Control de acceso a datos: El usuario envía una solicitud de datos, el proveedor la revisa y aprueba, y los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM principales (como LLaMA, Mistral), configurando los hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra en tiempo real el progreso del entrenamiento.
Evaluación y despliegue de modelos: Herramientas de evaluación integradas, que soportan la exportación para el despliegue o la llamada compartida en el ecosistema.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
Generación de RAG de trazabilidad: Respuestas con citas de origen, que mejoran la confianza y la auditabilidad.
La arquitectura del sistema Model Factory contiene seis módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlable, con interacción en tiempo real y capacidad de monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Serie LLaMA: el ecosistema más amplio, comunidad activa y gran rendimiento general, es uno de los modelos base de código abierto más populares en la actualidad.
Mistral: arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios con implementación flexible y recursos limitados.
Qwen: Producto de Alibaba, con un rendimiento excepcional en tareas en chino, capacidad integral fuerte, ideal para desarrolladores nacionales como primera opción.
ChatGLM: Efecto de conversación en chino destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: Un modelo ligero lanzado por Google, con una estructura clara, fácil de implementar y experimentar rápidamente.
Falcon: Fue un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es débil, adecuado para investigaciones de cobertura de idiomas.
GPT-2: modelo clásico temprano, solo adecuado para fines de enseñanza y verificación, no se recomienda su uso en implementación real.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no está obsoleta, sino que se basa en una configuración "prioritaria en la práctica" realizada en función de las limitaciones reales del despliegue en la cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuidores de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para los desarrolladores: proporcionar una ruta completa para la incubación, distribución e ingresos de modelos;
Para la plataforma: formar un ecosistema de circulación y combinación de activos modelo;
Para los usuarios: se pueden combinar modelos o agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grande tradicionales (como LLaMA, GPT-3) suelen tener miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos GPU, promoviendo la ejecución de "IA Pagable".
Componente central de la arquitectura del sistema OpenLoRA, basado en模
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
15 me gusta
Recompensa
15
5
Compartir
Comentar
0/400
WenMoon
· hace10h
¿No es demasiado anticuado depender solo de la potencia computacional?
Ver originalesResponder0
AltcoinMarathoner
· hace10h
vibras del kilómetro 23 en este momento... este espacio pasando de cómputo en bruto a la capa de modelo, justo como alcanzar ese punto dulce en un maratón donde la estrategia > la fuerza bruta
Ver originalesResponder0
DegenWhisperer
· hace10h
La competencia en la base es falsa.
Ver originalesResponder0
BlockchainFoodie
· hace10h
mmm esta pila es como la receta perfecta... los datos como los ingredientes, los modelos como la técnica de cocción, la computación como la fuente de calor... *beso de chef*
OpenLedger construye un ecosistema de IA en cadena: OP Stack + EigenDA como base para impulsar una economía de agentes inteligentes combinables.
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
Introducción | La transición de la capa del modelo de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos al combustible (datos), motor (modelos) y energía (potencia de cálculo), todos son imprescindibles. Al igual que la trayectoria de evolución de la infraestructura en la industria de IA tradicional, el campo de Crypto AI también ha atravesado etapas similares. A principios de 2024, el mercado estuvo dominado por proyectos de GPU descentralizados ( y ciertas plataformas de potencia de cálculo descentralizadas ), enfatizando comúnmente la lógica de crecimiento extensivo de "competencia de potencia de cálculo". Sin embargo, al entrar en 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia la capa de modelos y datos, lo que marca la transición de Crypto AI de la competencia de recursos básicos a la construcción de un nivel medio con mayor sostenibilidad y valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje de gran tamaño (LLM) tradicionales dependen en gran medida de conjuntos de datos masivos y arquitecturas distribuidas complejas, con escalas de parámetros que oscilan entre 70B y 500B, y el costo de un entrenamiento puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma de ajuste fino ligero que utiliza un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos especializados de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos del dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Es importante señalar que el SLM no será integrado en el peso del LLM, sino que colaborará con el LLM a través de la arquitectura de Agentes, el sistema de plugins para el enrutamiento dinámico, la conectividad en caliente del módulo LoRA, y el RAG (generación aumentada por recuperación). Esta arquitectura mantiene la capacidad de cobertura amplia del LLM, al mismo tiempo que mejora el rendimiento profesional a través de módulos de ajuste fino, formando un sistema inteligente compuesto altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI, en esencia, son difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón principal es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión de valor a través del ajuste fino de modelos de lenguaje especializados (SLM) y combinando la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de valor de la industria de IA, se manifiesta en dos direcciones clave:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad en blockchain
Como se puede ver, los puntos de enfoque viables de los proyectos de Crypto AI basados en modelos se concentran principalmente en la optimización ligera de SLM pequeños, la integración y verificación de datos en cadena de la arquitectura RAG, así como el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único a estos escenarios de modelos de recursos medio-bajos, formando un valor diferenciado en la "capa de interfaz" de AI.
La cadena de bloques AI basada en datos y modelos puede registrar de manera clara e inmutable el origen de la contribución de cada dato y modelo, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de los modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se utilizan datos o modelos, convirtiendo el comportamiento de la IA en un valor tokenizado medible y comerciable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la elaboración de reglas y en la iteración, perfeccionando la estructura de gobernanza descentralizada.
Dos, Resumen del proyecto | La visión de la cadena de AI de OpenLedger
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado que se centra en los mecanismos de incentivos de datos y modelos. Fue el primero en proponer el concepto de "Payable AI", con el objetivo de construir un entorno operativo de AI justo, transparente y combinable, incentivando a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena basados en sus contribuciones reales.
OpenLedger ofrece un ciclo cerrado completo que abarca desde "provisión de datos" hasta "despliegue de modelos" y "llamadas de distribución de beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" impulsada por datos y con modelos combinables, promoviendo la on-chainización de la cadena de valor de la IA.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, construyendo un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con cadenas de IA generales como NEAR, que se centran más en la capa base y promueven la soberanía de datos y la arquitectura de «AI Agents on BOS», OpenLedger se enfoca más en construir cadenas de IA específicas orientadas a datos e incentivos de modelos. Su objetivo es lograr que el desarrollo y la llamada de modelos se realicen en la cadena con un ciclo de valor que sea rastreable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando ciertas plataformas de alojamiento de modelos al estilo de plataformas de hospedaje, ciertos cobros de uso al estilo de plataformas de pago y ciertos interfaces de blockchain al estilo de plataformas de servicios de infraestructura en la cadena, promoviendo así el camino hacia la realización de «modelos como activos».
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de un gran modelo de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se ha logrado un flujo de trabajo integrado para la autorización de datos, el entrenamiento y el despliegue del modelo, cuyo proceso central incluye:
La arquitectura del sistema Model Factory contiene seis módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino del modelo, la evaluación y el despliegue, así como la trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlable, con interacción en tiempo real y capacidad de monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory admite actualmente:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos de alto rendimiento MoE o modelos multimodales, su estrategia no está obsoleta, sino que se basa en una configuración "prioritaria en la práctica" realizada en función de las limitaciones reales del despliegue en la cadena (costos de inferencia, adaptación RAG, compatibilidad LoRA, entorno EVM).
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, asegurando los derechos de los contribuidores de datos y los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método eficiente de ajuste de parámetros que aprende nuevas tareas al insertar "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y las necesidades de almacenamiento. Los modelos de lenguaje grande tradicionales (como LLaMA, GPT-3) suelen tener miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original y solo entrenar las nuevas matrices de parámetros insertadas." Su eficiencia de parámetros, entrenamiento rápido y despliegue flexible lo convierten en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos GPU, promoviendo la ejecución de "IA Pagable".
Componente central de la arquitectura del sistema OpenLoRA, basado en模