OpenLedger constrói um ecossistema de IA na cadeia: Base OP Stack + EigenDA impulsionam a economia de agentes inteligentes combináveis

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uma introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Assim como o caminho de evolução da infraestrutura da indústria de IA tradicional, o campo da Crypto AI também passou por estágios semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados ( algumas plataformas de poder computacional descentralizadas etc. ), enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção de meio nível mais sustentável e com valor aplicado.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode facilmente chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de modelos básicos reutilizáveis, geralmente se baseia em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando um pequeno número de dados especializados de alta qualidade e técnicas como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e as barreiras técnicas.

Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim colaborará com o LLM através da chamada de arquitetura Agent, sistema de plugins de roteamento dinâmico, hot-plug de módulos LoRA, RAG (Geração Aumentada por Recuperação), entre outros. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto reforça o desempenho especializado através de módulos finamente ajustados, formando um sistema inteligente combinatório altamente flexível.

O valor e os limites da Crypto AI a nível de modelo

Os projetos de Crypto AI são essencialmente difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão central é que

  • Barreiras tecnológicas excessivas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo de Fundação são extremamente grandes. Atualmente, apenas gigantes tecnológicos como os EUA (OpenAI, etc.) e a China (DeepSeek, etc.) possuem essa capacidade.
  • Limitações do ecossistema de código aberto: Embora modelos fundamentais populares como LLaMA e Mixtral tenham sido tornados públicos, a verdadeira chave para impulsionar avanços nos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para projetos em blockchain no nível do modelo central.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia de indústria de IA, isso se reflete em duas direções principais:

  • Camada de verificação confiável: através do registro em cadeia dos caminhos de geração de modelos, contribuição de dados e uso, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treino e serviço de modelos.

Classificação de Tipos de Modelos de IA e Análise de Adequação ao Blockchain

Assim, pode-se ver que os pontos viáveis para projetos de IA Crypto do tipo modelo estão principalmente concentrados na afinagem leve de SLMs pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, assim como na implantação local e incentivo de modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, a Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado na "camada de interface" da IA.

Baseada em dados e modelos, a cadeia de blockchain AI permite um registro claro e imutável na cadeia para a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição de recompensas é automaticamente acionada quando dados ou modelos são utilizados, transformando o comportamento de IA em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho dos modelos por meio de votos com tokens, participar da formulação e iteração de regras, aprimorando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain AI no mercado atual que se concentra em mecanismos de incentivos para dados e modelos. Foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter rendimentos em cadeia com base nas suas contribuições reais.

OpenLedger oferece um ciclo completo de cadeia que vai desde "fornecimento de dados" até "implantação de modelos" e "chamada de participação nos lucros", cujos módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível utilizar o LoRA para ajustar, treinar e implementar modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
  • PoA (Prova de Atribuição): Medição de contribuição e distribuição de recompensas através do registro de chamadas on-chain;
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, invocável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" orientada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, construindo um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de AI.

  • Construído com base na OP Stack: baseado na pilha de tecnologia Optimism, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidar na mainnet Ethereum: garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: facilita aos desenvolvedores a implantação e expansão rápida com base em Solidity;
  • EigenDA fornece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a cadeias de IA genéricas como NEAR, que são mais focadas em camadas inferiores e enfatizam a soberania dos dados com a arquitetura "AI Agents on BOS", a OpenLedger está mais concentrada na construção de cadeias de IA dedicadas voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos em cadeia uma realidade com um ciclo de valor rastreável, combinável e sustentável. É a infraestrutura de incentivos de modelos no mundo Web3, combinando certos aspectos de plataformas de hospedagem de modelos, certos aspectos de plataformas de pagamento para cobrança de uso e certos aspectos de plataformas de serviços de infraestrutura de blockchain para interfaces combináveis em cadeia, promovendo o caminho para a realização de "modelo como ativo".

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

3.1 Fábrica de Modelos, sem necessidade de código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) dentro do ecossistema OpenLedger. Ao contrário das estruturas tradicionais de ajuste fino, o ModelFactory oferece uma interface gráfica pura, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Implementou um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de Acesso a Dados: O usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados na interface de treinamento do modelo.
  • Seleção e configuração do modelo: Suporta LLM de destaque (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibindo em tempo real o progresso do treinamento.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportam exportação de implementação ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG de rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviço de modelos integrada, segura e controlável, com interações em tempo real e monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

A tabela a seguir resume as capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos básicos de código aberto mais predominantes atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excepcional em tarefas em chinês, com uma forte capacidade abrangente, sendo a escolha preferida para desenvolvedores nacionais.
  • ChatGLM: Efeito de diálogo em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar a usar e experimentar.
  • Falcon: Era uma referência de desempenho, adequado para pesquisa básica ou testes de comparação, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilíngue forte, mas desempenho de raciocínio fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim uma configuração "prática em primeiro lugar" baseada nas restrições reais de implantação on-chain (custos de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).

Model Factory como uma ferramenta de código zero, todos os modelos incorporam um mecanismo de prova de contribuição, garantindo os direitos dos contribuidores de dados e dos desenvolvedores de modelos, apresentando vantagens de baixa barreira, potencial de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar um ecossistema de circulação de ativos modelados e combinações;
  • Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos on-chain do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir uma "matriz de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas jurídicas ou consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamadas combinadas de modelos Web3.

OpenLoRA é uma estrutura de inferência leve construída pela OpenLedger, projetada especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver os problemas comuns de alto custo, baixa reutilização e desperdício de recursos de GPU no deployment de modelos de IA, promovendo a execução da "IA Pagável" (Payable AI).

Componente central da arquitetura do sistema OpenLoRA, baseado em módulo

OP4.52%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 5
  • Compartilhar
Comentário
0/400
WenMoonvip
· 15h atrás
Apenas depender do Poder de computação parece muito ultrapassado.
Ver originalResponder0
AltcoinMarathonervip
· 15h atrás
vibes do quilômetro 23 agora... este espaço mudando de computação bruta para camada de modelo, assim como atingir aquele ponto ideal em uma maratona onde estratégia > força bruta
Ver originalResponder0
DegenWhisperervip
· 15h atrás
A competição de base é toda falsa.
Ver originalResponder0
BlockchainFoodievip
· 15h atrás
mmm esta pilha é como a receita perfeita... dados como os ingredientes, modelos como a técnica de cozimento, computação como a fonte de calor... *beijinho do chefe*
Ver originalResponder0
AirdropHunterWangvip
· 15h atrás
Onde se pode ganhar dinheiro, é para lá que se corre.
Ver originalResponder0
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)