OpenLedger будує екосистему AI у блокчейні: основа OP Stack + EigenDA, що стимулює економіку комбінованих інтелектуальних агентів

OpenLedger Глибина дослідження: на основі OP Stack + EigenDA побудувати економіку агентів, керовану даними та комбінованими моделями

Одне. Вступ | Модельний рівень Crypto AI

Дані, моделі та обчислювальна потужність є трьома основними складовими інфраструктури ШІ, аналогічними паливу (дані), двигуну (моделі) та енергії (обчислювальна потужність), жоден з яких не може бути відсутнім. Подібно до еволюційного шляху інфраструктури традиційної індустрії ШІ, сфера Crypto AI також пройшла через подібні етапи. На початку 2024 року ринок на деякий час був під контролем децентралізованих проектів GPU ( деякі децентралізовані платформи обчислювальної потужності тощо ), які загалом підкреслювали логіку грубого зростання "змагання в обчислювальній потужності". А з початком 2025 року увага галузі поступово перемістилася до моделі та рівня даних, що знаменує перехід Crypto AI від конкуренції за базові ресурси до більш стійкого та цінного з точки зору застосування середнього рівня будівництва.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-62b3fa1e810f4772aaba3d91c74c1aa6)

Універсальна велика модель (LLM) проти спеціалізованої моделі (SLM)

Традиційні великі мовні моделі (LLM) сильно залежать від масштабних наборів даних і складних розподілених архітектур, масштаб параметрів коливається від 70B до 500B, а вартість одного навчання часто сягає кількох мільйонів доларів. У той же час SLM (Спеціалізована мовна модель) є легким підходом до тонкої настройки, що дозволяє повторно використовувати базові моделі, зазвичай основаними на відкритих моделях, таких як LLaMA, Mistral, DeepSeek, поєднуючи невелику кількість високоякісних спеціалізованих даних та технології LoRA, швидко створюючи експертні моделі, що володіють знаннями в певній галузі, значно знижуючи витрати на навчання та технологічний бар'єр.

Варто зазначити, що SLM не буде інтегровано в ваги LLM, а буде співпрацювати з LLM через архітектуру Agent, динамічну маршрутизацію системи плагінів, гарячу заміну модуля LoRA, RAG (посилене генерування з використанням пошуку) та інші способи. Ця архітектура зберігає широку охопленість LLM і, завдяки модулям тонкого налаштування, підвищує професійні показники, формуючи високо гнучку комбінаційну інтелектуальну систему.

Вартість і межі Crypto AI на рівні моделі

Проекти Crypto AI в основному не можуть безпосередньо підвищити основні можливості великих мовних моделей (LLM), основна причина полягає в тому,

  • Технічний бар'єр занадто високий: масштаб даних, обчислювальні ресурси та інженерні можливості, необхідні для навчання Foundation Model, є надзвичайно великими, наразі лише такі технологічні гіганти, як США (OpenAI тощо) та Китай (DeepSeek тощо), мають відповідні можливості.
  • Обмеження відкритої екосистеми: хоча основні базові моделі, такі як LLaMA, Mixtral, вже є відкритими, справжній прорив моделей все ще зосереджений на науково-дослідних установах і закритих інженерних системах, а участь проектів на блокчейні в основному моделі залишається обмеженою.

Проте, на основі відкритих базових моделей, проекти Crypto AI все ще можуть здійснювати розширення вартості через тонку налаштування спеціалізованих мовних моделей (SLM) і поєднання з верифікацією та механізмами стимулювання Web3. Як «периферійний інтерфейсний шар» в індустрії AI, це виявляється в двох основних напрямках:

  • Достовірний верифікаційний шар: шляхом запису на ланцюгу шляху генерації моделі, внесків даних та їх використання, посилюється відстежуваність і стійкість до підробок виходу AI.
  • Механізм стимулювання: за допомогою рідного токена для стимулювання таких дій, як завантаження даних, виклик моделей, виконання агентами (Agent), побудова позитивного циклу навчання моделей та обслуговування.

Класифікація типів AI моделей та аналіз їх придатності до блокчейну

З цього видно, що можливі точки реалізації моделей класу Crypto AI в основному зосереджені на легкій налаштуванні малих SLM, підключенні та верифікації даних на блокчейні в архітектурі RAG, а також на локальному розгортанні та стимулюванні Edge моделей. Поєднуючи верифікацію блокчейну та токенну механіку, Crypto може надати унікальну цінність для цих середніх і малих ресурсних моделей, створюючи диференційовану цінність «інтерфейсного шару» AI.

Блокчейн AI ланцюг на основі даних і моделей може чітко та незмінно записувати джерела внеску кожної даних і моделі, що суттєво підвищує достовірність даних і відстежуваність навчання моделі. Одночасно, за допомогою механізму смарт-контрактів, при виклику даних або моделі автоматично ініціюється розподіл винагород, перетворюючи поведінку AI у вимірювану та торгову токенізовану цінність, що створює стійку систему стимулів. Крім того, користувачі спільноти можуть оцінювати продуктивність моделі через голосування токенами, брати участь у розробці та ітерації правил, удосконалюючи децентралізовану архітектуру управління.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-19c2276fccc616ccf9260fb7e35c9c24)

Два, огляд проекту | Візія AI ланцюга OpenLedger

OpenLedger є одним з небагатьох проектів блокчейн AI на ринку, що зосереджуються на механізмах стимулювання даних і моделей. Він першим запропонував концепцію «Payable AI», яка має на меті створення справедливого, прозорого та комбінованого середовища для роботи AI, стимулюючи внесок даних, розробників моделей та будівельників AI додатків для співпраці на одній платформі та отримання прибутку в мережі відповідно до фактичного внеску.

OpenLedger надає повний замкнутий ланцюг від «надання даних» до «впровадження моделей», а потім до «виклику розподілу прибутку», його основні модулі включають:

  • Модельна фабрика: без програмування, можна використовувати LoRA для доопрацювання, навчання та розгортання індивідуальних моделей на основі відкритого LLM;
  • OpenLoRA: підтримка спільного використання тисячі моделей, динамічне завантаження за потребою, значне зниження витрат на розгортання;
  • PoA (Proof of Attribution): через запис на ланцюзі викликів реалізується вимірювання внеску та розподіл винагород;
  • Datanets: Структуровані мережі даних, орієнтовані на вертикальні сценарії, що будуються та перевіряються спільнотою;
  • Платформа пропозицій моделей (Model Proposal Platform): комбінаційний, викликаємий, платіжний ринковий модельний ринок на блокчейні.

Завдяки вищезгаданим модулям, OpenLedger побудував «інфраструктуру економіки агентів», яка є керованою даними та комбінованою моделлю, що сприяє онлайнізації ланцюга вартості AI.

А в застосуванні технології блокчейн OpenLedger використовує OP Stack + EigenDA як основу, створюючи високо продуктивне, низьковартісне, перевірене середовище для роботи з даними та контрактами для AI моделей.

  • Побудовано на OP Stack: на базі технологічного стеку Optimism, що підтримує високу пропускну спроможність та низькі витрати на виконання;
  • Розрахунок в основній мережі Ethereum: забезпечте безпеку транзакцій та цілісність активів;
  • EVM сумісність: зручно для розробників швидко розгортати та розширювати на основі Solidity;
  • EigenDA надає підтримку доступності даних: значно знижує витрати на зберігання, забезпечує перевірність даних.

У порівнянні з NEAR, який більше орієнтований на базовий рівень, акцентуючи увагу на суверенітеті даних та архітектурі «AI Agents on BOS», OpenLedger більше зосереджується на створенні спеціалізованого AI-ланцюга, орієнтованого на дані та моделі заохочення, прагнучи реалізувати відстежувані, комбіновані та стійкі замкнуті ціннісні цикли для розробки та виклику моделей на ланцюзі. Це інфраструктура заохочення моделей у світі Web3, яка поєднує в собі певні моделі хостингових платформ, певні платформи для оплати та певні платформи послуг інфраструктури блокчейну з комбінованими інтерфейсами на ланцюзі, сприяючи реалізації шляху «модель як актив».

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f23f47f09226573b1fcacebdcfb8c1f3)

Три. Основні компоненти та технологічна архітектура OpenLedger

3.1 Модельна фабрика, безкодові моделі фабрики

ModelFactory є великою платформою для доопрацювання мовних моделей (LLM) в екосистемі OpenLedger. На відміну від традиційних фреймворків доопрацювання, ModelFactory пропонує чисто графічний інтерфейс, без необхідності використання командного рядка або інтеграції API. Користувачі можуть доопрацьовувати моделі на основі даних, які пройшли авторизацію та перевірку в OpenLedger. Реалізовано інтегрований робочий процес авторизації даних, навчання моделей та їх розгортання, основні етапи якого включають:

  • Контроль доступу до даних: Користувач надсилає запит на дані, постачальник перевіряє та затверджує, дані автоматично підключаються до інтерфейсу навчання моделі.
  • Вибір та налаштування моделі: Підтримка основних LLM (таких як LLaMA, Mistral), налаштування гіперпараметрів через GUI.
  • Легке налаштування: вбудований двигун LoRA / QLoRA, що демонструє прогрес навчання в реальному часі.
  • Оцінка та розгортання моделей: вбудовані інструменти оцінки, підтримка експорту для розгортання або екосистемного спільного використання.
  • Інтерфейс взаємодії для перевірки: забезпечує чат-інтерфейс, що полегшує безпосереднє тестування здібностей моделі до запитань і відповідей.
  • Генерація RAG для відстеження: відповіді з посиланнями на джерела, що підвищує довіру та можливість аудиту.

Система архітектури Model Factory містить шість основних модулів, що охоплюють ідентифікацію, доступ до даних, тонке налаштування моделей, оцінку впровадження та RAG трасування, створюючи безпечну, контрольовану, реальну взаємодію та сталу монетизацію інтегрованої модульної сервісної платформи.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-909dc3f796ad6aa44a1c97a51ade4193)

Модельний завод наразі підтримує наступні можливості великих мовних моделей:

  • Серія LLaMA: найбільш широка екосистема, активне співтовариство, сильна універсальна продуктивність, є однією з найпоширеніших відкритих базових моделей на сьогодні.
  • Mistral: архітектура ефективна, продуктивність висока, підходить для гнучкого розгортання в умовах обмежених ресурсів.
  • Qwen: продукт від Alibaba, відмінні результати в китайських завданнях, високі комплексні можливості, підходить для вибору вітчизняними розробниками.
  • ChatGLM: китайський діалог має видатні результати, підходить для специфічних служб підтримки та локалізованих сценаріїв.
  • Deepseek: проявляє переваги в генерації коду та математичному міркуванні, підходить для інструментів допомоги в розумному розвитку.
  • Gemma: легка модель, представлена Google, має чітку структуру, легка для швидкого освоєння та експериментів.
  • Falcon: Колишній еталон продуктивності, підходить для базових досліджень або порівняльного тестування, але активність у спільноті зменшилась.
  • BLOOM: Підтримка кількох мов досить сильна, але продуктивність висновків слабка, підходить для досліджень з охоплення мов.
  • GPT-2: класична рання модель, лише для навчання та перевірки, не рекомендується для фактичного розгортання.

Хоча модельний набір OpenLedger не містить останніх високопродуктивних моделей MoE або мультимодальних моделей, його стратегія не застаріла, а є «пріоритетом практичності», заснованим на реальних обмеженнях, що виникають внаслідок ончейн-розгортання (витрати на інференс, адаптація RAG, сумісність LoRA, середовище EVM).

Model Factory як безкодова інструментальна ланка, всі моделі мають вбудований механізм підтвердження внеску, що забезпечує права учасників даних та розробників моделей, має низький поріг входження, можливість монетизації та комбінації, у порівнянні з традиційними інструментами розробки моделей:

  • Для розробників: надання повного шляху до інкубації, розповсюдження та доходу моделей;
  • Для платформи: формування екосистеми обігу та комбінації модельних активів;
  • Для застосувачів: можна комбінувати моделі або Agent так само, як викликати API.

! [Звіт про глибоке дослідження OpenLedger: Побудова керованої даними агентної економіки на основі OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменти-f49cfa5ea73fc0018250d04193b34b60)

3.2 OpenLoRA, активізація ончейн-активів моделі з мікронастроюванням

LoRA (Low-Rank Adaptation) є ефективним методом тонкої настройки параметрів, що дозволяє навчатися новим задачам шляхом вставки «низькорозмірних матриць» у попередньо навчений великий модель, не змінюючи параметри оригінальної моделі, що суттєво знижує витрати на навчання та вимоги до зберігання. Традиційні великі мовні моделі (такі як LLaMA, GPT-3) зазвичай мають десятки мільярдів або навіть сотні мільярдів параметрів. Щоб використовувати їх для конкретних задач (таких як юридичні запитання, медичні консультації), потрібно провести тонку настройку (fine-tuning). Основна стратегія LoRA полягає в тому, щоб: «заморозити параметри оригінальної великої моделі, тренувати лише нові параметричні матриці, що вставляються». Цей метод є ефективним за параметрами, швидким у навчанні та гнучким у розгортанні, що робить його найбільш підходящим для розгортання моделей Web3 та комбінованих викликів.

OpenLoRA є легковаговою системою інференції, розробленою OpenLedger, призначеною для розгортання кількох моделей і спільного використання ресурсів. Її основна мета - вирішити поширені проблеми високих витрат, низької повторної використання та марнотратства ресурсів GPU в розгортанні AI моделей, сприяючи впровадженню «платоспроможного AI» (Payable AI).

Ядро компонентів архітектури системи OpenLoRA, основане на модулі

OP4.52%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Поділіться
Прокоментувати
0/400
WenMoonvip
· 15год тому
Чисто покладаючись на обчислювальну потужність, це ж занадто приземлено, так?
Переглянути оригіналвідповісти на0
AltcoinMarathonervip
· 15год тому
вибори на 23 милі... цей простір переходить від сирих обчислень до модельного шару, так само як досягнення того солодкого місця в марафоні, де стратегія > груба сила
Переглянути оригіналвідповісти на0
DegenWhisperervip
· 15год тому
Основна конкуренція є фальшивою
Переглянути оригіналвідповісти на0
BlockchainFoodievip
· 15год тому
ммм, цей стек як ідеальний рецепт... дані як інгредієнти, моделі як техніка приготування, обчислення як джерело тепла... *поцілунок шефа*
Переглянути оригіналвідповісти на0
AirdropHunterWangvip
· 15год тому
Куди можна заробити, туди й біжимо
Переглянути оригіналвідповісти на0
  • Закріпити