Розуміння перетину Крипто та ШІ

Розширений2/22/2024, 5:28:27 AM
Експерименти на перетині криптовалюти і штучного інтелекту рухаються за тими ж силами, що лежать в основі найбільш перспективних випадків використання криптовалют - доступ до шарів координації без дозволу та безпеки, що полегшують передачу вартості більш ефективно.

Вступ

Поява публічних блокчейнів - один з найглибших проривів в історії комп'ютерних наук. Але розвиток штучного інтелекту буде мати глибокий вплив на наш світ. Якщо технологія блокчейну надає новий шаблон для вирішення транзакцій, зберігання даних та конструювання систем, то штучний інтелект є революцією в обчисленнях, аналізі та доставці контенту. Інновації в цих двох галузях відкривають нові використання, які можуть прискорити прийняття обох в найближчі роки. У цьому звіті досліджуються нинішні інтеграції криптографії та штучного інтелекту з урахуванням нових використань, які намагаються зблизити ці дві галузі, використовуючи потужність обох. Зокрема, у цьому звіті розглядаються проекти, що розробляють децентралізовані протоколи обчислень, інфраструктуру машинного навчання з нульовими знаннями (zkML) та штучні інтелектуальні агенти.

Криптовалюта надає штучному інтелекту рівень розрахунків без дозволів, без довіри та складений. Це відкриває такі варіанти використання, як підвищення доступності апаратного забезпечення за допомогою децентралізованих обчислювальних систем, створення агентів штучного інтелекту, які можуть виконувати складні завдання, що вимагають обміну цінностями, а також розробка рішень для ідентифікації та походження для боротьби з атаками Sybil і глибокими фейками. Штучний інтелект приносить криптовалюті багато тих самих переваг, які ми бачимо у Web 2. Це включає покращений користувацький досвід (UX) як для користувачів, так і для розробників завдяки великомовним моделям (тобто спеціально навченим версіям ChatGPT і Copilot), а також потенціал для значного покращення функціональності смарт-контрактів та автоматизації. Блокчейни – це прозоре середовище, багате на дані, яке потрібне штучному інтелекту. Але блокчейни також мають обмежені обчислювальні потужності, що є серйозною перешкодою для прямої інтеграції моделей штучного інтелекту.

Основною силою, яка підтримує невпинні експерименти та кінцеве прийняття на перехресті крипто та штучного інтелекту, є те саме, що підтримує більшість найбільш перспективних випадків використання криптовалюти - доступ до шару координації без дозволу та бездовірчивої, який краще сприяє передачі вартості. Одержавши величезний потенціал, учасники у цьому просторі повинні розуміти основні способи взаємодії цих двох технологій.

Основні висновки:

  • В інтеграції криптовалют та штучного інтелекту в найближчому майбутньому (від 6 місяців до 1 року) домінуватимуть програми штучного інтелекту, які підвищать ефективність розробників, можливість контролю та безпеку смарт-контрактів, а також доступність для користувачів. Ці інтеграції не є специфічними для криптовалют, але покращують ончейн-розробника та користувацький досвід.
  • Децентралізовані пропозиції обчислень впроваджують пропозиції з штучним інтелектом, так само як існує значна нестача високопродуктивних GPU, що забезпечує підтримку для прийняття.
  • Досвід користувача та регулювання лишаються перешкодами для залучення клієнтів для децентралізованого обчислення.Останні події в OpenAIа такожпоточні регуляторні перевіркиу Сполучених Штатах, проте, висвітлюють ціннісну пропозицію мереж штучного інтелекту без дозволу, відсутність цензури, децентралізовані.
  • Інтеграції штучного інтелекту на ланцюжку, особливо для смарт-контрактів, які можуть використовувати моделі штучного інтелекту, вимагають вдосконалення технології zkML та інших обчислювальних методів, які підтверджують обчислення офлайн на ланцюжку. Відсутність комплексних інструментів та талановитих розробників, а також високі витрати, є перешкодами для прийняття.
  • AI агенти добре підходять для крипто, де користувачі (або самі агенти) можуть створювати гаманці для проведення операцій з іншими сервісами, агентами або людьми. Це наразі неможливо здійснити за допомогою традиційних фінансових засобів. Для більш широкого поширення потрібна додаткова інтеграція з не-криптовалютними продуктами.

Термінологія

Штучний інтелект - це використання обчислень та машин для імітації мислення та вміння вирішувати проблеми людини.

Нейронні мережі - один із методів навчання моделей штучного інтелекту. Вони пропускають вхідні дані через окремі шари алгоритмів, вдосконалюючи їх, поки не буде отриманий бажаний результат. Нейронні мережі складаються з рівнянь, у яких є ваги, які можуть бути змінені для зміни виходу. Для їхнього навчання може знадобитися неймовірна кількість даних і обчислень, щоб їх виходи були точними. Це один із найпоширеніших способів розробки моделей штучного інтелекту (ChatGPT використовує процес нейронної мережі, який ґрунтується натрансформатори).

Тренування - це процес, за допомогою якого розробляються нейромережі та інші моделі штучного інтелекту. Для навчання моделей правильно інтерпретувати вхідні дані та виробляти точні виходи потрібні великі обсяги даних. Протягом процесу тренування ваги рівняння моделі постійно змінюються, доки не буде отриманий задовільний вихід. Тренування може бути дуже дорогим. Наприклад, ChatGPT, використовує десятки тисяч власних графічних процесорів для обробки своїх даних. Команди з меншими ресурсами часто покладаються на спеціалізованих постачальників обчислень, таких як Amazon Web Services, Azure і Google Cloud Providers.

Виведення - це фактичне використання моделі штучного інтелекту для отримання виводу або результату (наприклад, використання ChatGPT для створення змісту для статті про перетин криптографії та штучного інтелекту). Виведення використовуються протягом всього процесу навчання та у кінцевому продукті. Вони можуть бути дорогими для виконання навіть після завершення навчання через обчислювальні витрати, але вони менше обчислювально інтенсивні, ніж навчання.

Докази з нульовим розголошенням (ZKP) дозволяють перевірити твердження без розкриття основної інформації. Це корисно в криптовалюті з двох основних причин: 1) конфіденційність і 2) масштабування. З міркувань конфіденційності це дозволяє користувачам здійснювати транзакції, не розкриваючи конфіденційну інформацію, наприклад, скільки ETH знаходиться в їхньому гаманці. Для масштабування це дозволяє доводити офчейн-обчислення в ланцюжку швидше, ніж повторно виконувати обчислення. Це дозволяє блокчейнам і додаткам дешево виконувати обчислення поза мережею, а потім перевіряти їх у мережі. Для отримання додаткової інформації про нульове знання та його роль у віртуальній машині Ethereum, будь ласка, перегляньте звіт Крістін Кім zkEVMs: Майбутнє масштабованості Ethereum.

AI/Крипто Карта ринку

Проекти на перетині штучного інтелекту та криптовалюти все ще будують основну інфраструктуру, необхідну для підтримки взаємодії на ланцюжку штучного інтелекту на велику відстань.

З'являються ринки децентралізованих обчислень, які постачають велику кількість фізичного обладнання, насамперед у вигляді графічних процесорів (GPU), необхідних для навчання та виведення моделей штучного інтелекту. Ці двосторонні маркетплейси з'єднують тих, хто орендує та хоче орендувати обчислення, полегшуючи передачу вартості та перевірку обчислень. У рамках децентралізованих обчислень з'являється кілька підкатегорій, які надають додаткову функціональність. На додаток до двосторонніх ринків, у цьому звіті будуть розглянуті постачальники послуг з навчання машинному навчанню, які спеціалізуються на обслуговуванні перевірених результатів навчання та точного налаштування, а також проекти, що працюють над підключенням обчислень та генерації моделей для досягнення штучного загального інтелекту, який також часто називають мережами стимулювання інтелекту.

zkML - це нове напрямок уваги для проектів, які бажають надавати перевірені виходи моделі on-chain в ефективний та своєчасний спосіб. Ці проекти в основному дозволяють додаткам обробляти важкі запити на обчислення поза ланцюжком, а потім публікувати on-chain перевірений вихід, доводячи, що робоче навантаження поза ланцюжком завершене і точне. zkML є дорогим та часово витратним у його поточному втіленні, але все більше використовується як рішення. Це очевидно в зростаючій кількості інтеграцій між постачальниками zkML та додатками DeFi / іграми, які хочуть використовувати моделі штучного інтелекту.

Достатня кількість обчислень та можливість перевірки цих обчислень на ланцюжку відкриває двері для агентів штучного інтелекту на ланцюжку. Агенти - це навчені моделі, здатні виконувати запити від імені користувача. Агенти відкривають можливість значно покращити взаємодію на ланцюжку, дозволяючи користувачам виконувати складні транзакції, лише розмовляючи з чат-ботом. Однак на сьогоднішній день проекти агентів все ще фокусуються на розвитку інфраструктури та інструментів для простого і швидкого розгортання.

Децентралізоване обчислення

Огляд

Штучний інтелект потребує великих обсягів обчислень як для тренування моделей, так і для запуску інференції. Протягом останнього десятиріччя, із зростанням складності моделей, вимоги до обчислень зросли експоненційно. Наприклад, OpenAI,знайшлищо між 2012 та 2018 роками вимоги до обчислень для своїх моделей зросли з подвоєнням кожні два роки до кожних три з половиною місяці. Це призвело до стрімкого зростання попиту на GPU, навіть деякі криптовалютні шахраї.перепрофілювання своїх графічних процесорівнадавати послуги хмарного обчислення ( @jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">Детальніше про це можна прочитати в нашому щорічному звіті про майнінг біткоїну). При зростанні конкуренції за доступ до обчислень і зростанні витрат кілька проектів використовують криптовалюту для надання децентралізованих рішень у сфері обчислень. Вони пропонують обчислення на вимогу за конкурентоспроможними цінами, щоб команди могли витренувати та запустити моделі за доступними цінами. У деяких випадках компромісом може бути продуктивність та безпека.

Сучасні відеокарти, такі як ті, що виробленівід Nvidia користуються попитом. У вересні Tetherпридбанийстейк в Northern Data, німецькому біткойн-майнеру, який, за повідомленнями, заплатив 420 мільйонів доларів за придбання 10 000 H100 GPU (одного з найбільш передових GPU для навчання штучного інтелекту).ЧекайтеЧас на кращий апарат може становити принаймні шість місяців, а в багатьох випадках і довше. Покращує ситуацію той факт, що компаніям часто доводиться укладати довгострокові контракти на обсяги обчислень, які вони можуть навіть не використовувати. Це може призвести до ситуацій, коли є вільні обчислення, але вони недоступні на ринку. Децентралізовані системи обчислень допомагають вирішити ці ринкові неефективності, створюючи вторинний ринок, де власники обчислень можуть здавати в оренду свій вільний обсяг в будь-який момент, відкриваючи нові можливості.

Поза конкурентоспроможною ціноутворенням та доступністю ключовою пропозицією децентралізованого обчислення є резистентність до цензури. Сучасна розробка штучного інтелекту все більше контролюється великими технологічними компаніями з безпрецедентним доступом до обчислень та даних. Перша ключова тема, виділена в тексті, єЗвіт про індекс штучного інтелектуРічна звітність за 2023 рік свідчить про те, що промисловість все більше випереджає академію в розробці моделей штучного інтелекту, централізуючи контроль в руках кількох технологічних лідерів. Це викликало обурення через їхню здатність мати величезний вплив на формулювання норм і цінностей, що лежать в основі моделей штучного інтелекту, особливо після регулюваннятиснецими ж технологічними компаніями для обмеження розвитку штучного інтелекту поза їхнім контролем.

Децентралізовані обчислювальні вертикалі

Декілька моделей для децентралізованого обчислення з'явилися в останні роки, кожна зі своїм власним фокусом та компромісами.

Узагальнене обчислення

Проекти, такі як Akash, io.net, iExec, Cudos та багато інших, є децентралізованими обчислювальними застосунками, які пропонують доступ до спеціалізованих обчислень для навчання штучного інтелекту та висновків, а також до даних та загальних рішень з обчислень.

На даний момент Akash є єдиною «суперхмарною» платформою з повністю відкритим вихідним кодом. Це мережа підтвердження частки володіння з використанням Cosmos SDK. AKT, нативний токен Akash, використовується для захисту мережі, як форма оплати та для заохочення участі. Akash запустила свою першу основну мережу в 2020 році, зосереджену на наданні інклюзивного ринку хмарних обчислень, який спочатку включав послуги з оренди сховищ і процесорів. У червні 2023 року Акаш запущенийновий тестовий майданчик, спрямований на відеокарти та у вереснізапущениййого GPU mainnet дозволяє користувачам орендувати GPU для навчання та висновків з штучного інтелекту.

У екосистемі Akash існують два основних учасники - Орендарі та Постачальники. Орендарі - це користувачі мережі Akash, які бажають купувати обчислювальні ресурси. Постачальники - це постачальники обчислювальних ресурсів. Для збігу орендарів та постачальників Akash покладається на процес обертального аукціону. Орендарі подають свої вимоги щодо обчислень, в межах яких вони можуть вказати певні умови, такі як місцезнаходження серверів або тип обладнання, що проводить обчислення, та суму, яку вони готові заплатити. Постачальники потім подають свою ціну, з найнижчою пропозицією, яка отримує завдання.

Валідатори Akash підтримують цілісність мережі. Набір валідаторів наразі обмежений 100 і планується поступово збільшуватися з часом. Будь-хто може стати валідатором, поставивши в стейкінг більше AKT, ніж поточний валідатор з найменшою сумою AKT у стейкінгу. Власники АКТ також можуть делегувати свій АКТ валідаторам. Комісії за транзакції та винагороди за блоки для мережі розподіляються в AKT. Крім того, за кожну оренду мережа Akash отримує «плату за взяття» за ставкою, визначеною спільнотою, яка розподіляється між власниками AKT.

Другорядні ринки

Децентралізовані ринки обчислень спрямовані на заповнення неефективностей на існуючому ринку обчислень. Обмеження постачання призводять до того, що компанії накопичують обчислення поза тим, що їм може знадобитися, і постачання ще більше обмежене через структуру контрактів з хмарними постачальниками, які затримують клієнтів в довгострокових контрактах, навіть якщо продовжений доступ може бути не потрібним. Децентралізовані платформи обчислень розблоковують нове постачання, дозволяючи будь-якій людині у світі з потрібними обчисленнями стати постачальником.

Залишається побачити, чи попит на графічні процесори для навчання штучного інтелекту перетвориться на довгострокове використання мережі на Akash. Наприклад, Akash давно надає ринок для центральних процесорів, пропонуючи подібні послуги до централізованих альтернатив в 70-80%знижка. Проте низькі ціни не призвели до значного зростання. Активні оренди в мережі вирівнялися, в середньому становлячи лише 33% обчислень, 16% пам'яті та 13% зберігання для другого кварталу 2023 року. Хоча це вражаючі показники для прийняття on-chain (на відміну від провідного постачальника зберігання Filecoin мав12.6% використання сховищау Q3 2023 року), це свідчить про те, що постачання продовжує перевищувати попит на ці продукти.

Це лише трохи більше півроку з моменту запуску Akash своєї мережі GPU, і ще занадто рано точно оцінювати довгострокове прийняття. Свідченням попиту є середнє використання GPU на сьогоднішній день - 44% і вище, ніж у ЦП, пам'яті та сховища. Це в основному обумовлено попитом на найвищої якості GPU (наприклад, A100), більше ніж 90%здано в оренду.

Щоденні витрати на Akash також зросли, майже подвоївшись в порівнянні з попередніми GPU. Це може бути частково пов'язано з зростанням використання інших послуг, особливо CPU, але в основному це результат нового використання GPU.

Ціни збігаються (а в деяких випадках навіть дорожче) з його централізованими конкурентами, такими як Lambda Cloud і Vast.ai. Неймовірний попит на графічні процесори найвищого класу (такі як H100 і A100) означає, що більшість власників цього обладнання мало зацікавлені в розміщенні на ринках, де вони стикаються з конкурентоспроможними цінами.

Хоча початковий інтерес обіцяючий, існують перешкоди для прийняття (подробиці обговорюються нижче). Децентралізовані обчислювальні мережі будуть потребувати більше зусиль для залучення як попиту, так і пропозиції, і команди експериментують з тим, як найкраще залучити нових користувачів. Наприклад, в початку 2024 року Akash успішно пройшов Пропозиція 240збільшити викиди AKT для постачальників GPU та стимулювати більше постачання, спеціально спрямовуючись на вищі моделі GPU. Команди також працюють над впровадженням моделей доказу концепції, щоб продемонструвати потенційним користувачам реальні можливості своїх мереж. Акаш - навчанняїхній власний фундаментальний модель і вже запустивчат-бот та генерація зображеньпропозиції, які створюють виходи з використанням графічних процесорів Akash. Так само, io.net має розробленийстабільна модель дифузії і впровадженняНові мережеві функціїякі краще моделюють продуктивність та масштаб традиційних дата-центрів з GPU.

Децентралізоване навчання машинного навчання

На додаток до узагальнених обчислювальних платформ, які можуть обслуговувати потреби ШІ, також з'являється набір спеціалізованих постачальників графічних процесорів зі штучним інтелектом, орієнтованих на навчання моделей машинного навчання. Генсин, наприклад, «координуванняелектрика та обладнання для побудови колективного інтелекту” з точки зору, що „Якщо хтось хоче навчити щось, і хтось готовий цьому навчити, то це навчання повинно мати місце.”

Протокол має чотири основні учасники: подавачі, вирішувачі, перевіряючі та зведувачі. Подавачі подають завдання до мережі із запитами на навчання. Ці завдання включають навчальну мету, модель, яка має бути навчена, та навчальні дані. Як частина процесу подачі, подавачі сплачують попередньо встановлену плату за обчислення, необхідні від вирішувача.

Після подання завдання призначаються розв'язувачі, які проводять фактичне навчання моделей. Розв'язувачі потім подають завершені завдання верифікаторам, які відповідають за перевірку навчання, щоб переконатися, що воно було виконано правильно. Жалгувальники відповідають за те, щоб переконатися, що верифікатори ведуть себе чесно. Щоб заохочувати жалгувальників брати участь в мережі, Gensyn планує періодично надавати свідомо неправильні докази, які винагороджують жалгувальників за їх підманювання.

Окрім забезпечення обчислень для робочих навантажень, пов'язаних зі штучним інтелектом, ключовою ціннісною пропозицією Gensyn є система верифікації, яка все ще перебуває в розробці. Перевірка необхідна, щоб переконатися, що зовнішні обчислення постачальниками графічних процесорів виконуються правильно (тобто щоб переконатися, що модель користувача навчена так, як вони хочуть). Генсин вирішує цю проблему за допомогою унікального підходу, використовуючи нові методи верифікації під назвою «Імовірнісний доказ навчання, протокол на основі графів і заохочувальні ігри в стилі Truebit». Це оптимістичний режим розв'язання, який дозволяє верифікатору підтвердити, що розв'язувач правильно запустив модель, без необхідності повністю повторно запускати її самостійно, що є дорогим і неефективним процесом.

Крім інноваційного методу підтвердження, Gensyn також претензіїбути ефективними з точки зору вартості в порівнянні з централізованими альтернативами та криптоконкурентами - надаючи навчання ML за ціною до 80% дешевше, ніж AWS, перевищуючи подібні проекти, наприклад, Truebit, у тестуванні.

Чи можна реплікувати ці початкові результати в масштабах децентралізованої мережі - поки що невідомо. Gensyn хоче використовувати надлишкові обчислення від постачальників, таких як невеликі центри обробки даних, роздрібні користувачі, і у майбутньому навіть менші мобільні пристрої, такі як мобільні телефони. Однак, як сама команда Gensyn маєдопущено, покладаючись на постачальників гетерогенних обчислень, з'являється кілька нових проблем.

Для централізованих провайдерів, таких як Google Cloud Providers і Coreweave, обчислення коштують дорого, а зв'язок між цими обчисленнями (пропускна здатність і затримка) дешевий. Ці системи розроблені таким чином, щоб забезпечити якомога швидший зв'язок між апаратним забезпеченням. Gensyn перевертає цю структуру з ніг на голову, зменшуючи витрати на обчислення, дозволяючи будь-кому у світі постачати графічні процесори, але збільшуючи витрати на зв'язок, оскільки тепер мережа повинна координувати обчислювальні завдання на гетерогенному обладнанні, розташованому далеко один від одного. Gensyn ще не запущений, але є доказом концепції того, що може бути можливим, коли справа доходить до створення децентралізованих навчальних протоколів машинного навчання.

Децентралізований узагальнений інтелект

декентралізовані платформи обчислень також відкривають можливості для створення штучного інтелекту. Bittensor - це децентралізований протокол обчислень, побудований на Substrate, який намагаюся відповістипитання: «як ми можемо перетворити штучний інтелект на колаборативний підхід?» Bittensor має на меті децентралізувати та комодифікувати генерацію штучного інтелекту. Запущений у 2021 році, протокол хоче використовувати потужність колаборативних моделей машинного навчання для постійної ітерації та вироблення кращого штучного інтелекту.

Bittensor натхненний Bitcoin, з двадцятью один мільйоном поставок своєї власної валюти TAO та чотирирічним циклом півування (перше півування відбудеться у 2025 році). Замість того, щоб використовувати доказ роботи для генерації правильного номера та отримання винагороди за блок, Bittensor покладається на "Доказ інтелекту", вимагаючи від шахтарів запускати моделі, які виробляють відповіді на запити на виведення.

Сприятливість інтелекту

Bittensor спочатку покладався на модель Mixture of Experts (MoE), щоб виробляти виведення. Коли надходять запити на виведення, замість того, щоб покладатися на одну узагальнену модель, моделі MoE передають запит на виведення найточнішим моделям для певного типу вводу. Подумайте про будівництво будинку, де ви наймаєте різних спеціалістів для різних аспектів будівельного процесу (наприклад, архітектори, інженери, художники, будівельники тощо). MoE застосовує це до моделей машинного навчання, намагаючись використовувати виведення різних моделей в залежності від вводу. Як засновник Bittensor Ala Shaabana пояснено, це схоже на «розмову з кімнатою розумних людей і отримання найкращої відповіді, аніж розмовляти з однією людиною». Це черезвикликизабезпечуючи належне маршрутизацію, синхронізацію повідомлень до правильної моделі та стимулювання, цей підхід був відсторонений до того часу, поки проект не розвинеться більше.

У мережі Bittensor є два основні учасники: валідатори та майнери. Валідаторам доручається надсилати запити на виведення до майнерів, переглядати їх виводи та ранжувати їх на основі якості їх відповідей. Щоб забезпечити надійність їх рейтингів, валідаторам надаються бали "vtrust" на основі того, наскільки добре їхні рейтинги відповідають рейтингам інших валідаторів. Чим вище бал "vtrust" валідатора, тим більше TAO емісій вони отримують. Це призначено для стимулювання валідаторів до досягнення консенсусу щодо ранжування моделей з часом, оскільки чим більше валідаторів досягає згоди щодо ранжування, тим вищими є їхні індивідуальні бали "vtrust".

Майнери, також називаються серверами, є учасниками мережі, які запускають реальні моделі машинного навчання. Майнери конкурують між собою, щоб надати валідаторам найточніші виходи для заданого запиту, заробляючи більше викидів TAO, чим точніше їх вихід. Майнери можуть генерувати ці виходи так, як їм заманеться. Наприклад, цілком можливо у майбутньому сценарії, що майнер Bittensor може раніше навчати моделі на Gensyn, які вони використовують для заробітку викидів TAO.

Сьогодні більшість взаємодій відбуваються безпосередньо між валідаторами та майнерами. Валідатори надсилають ввідні дані майнерам та запитують виводи (тобто, навчають модель). Як тільки валідатор запитав майнерів в мережі та отримав їх відповіді, вони ранжирують майнерів та надсилають свої рейтинги в мережу.

Ця взаємодія між валідаторами (які покладаються на PoS) та майнерами (які покладаються на Proof of Model, форму PoW) - називається Умська консенсус. Вона спрямована на стимулювання майнерів для вироблення найкращих вихідних даних для отримання викидів TAO та валідаторів для точного ранжування вихідних даних майнера для отримання вищого балу довіри та збільшення їхніх винагород TAO, утворюючи механізм консенсусу мережі.

Підмережі та Додатки

Взаємодія на Bittensor в основному полягає в тому, що валідатори надсилають запити майнерам та оцінюють їх виводи. Однак по мірі зростання якості внесених майнерів та зростання загального інтелекту мережі, Bittensor створить додатковий рівень додатків на верхньому рівні свого існуючого стеку, щоб розробники могли створювати додатки, які запитують мережу Bittensor.

У жовтні 2023 року Bittensor завершив важливий крок у досягненні цього з вступпідрозділів через його оновлення Revolution. Підрозділи - це окремі мережі на Bittensor, які стимулюють конкретні поведінкові реакції. Революція відкриває мережу для всіх, хто зацікавлений у створенні підрозділу. Протягом місяців з моменту його випуску, понад 32 підмережібули запущені, включаючи ті, що стосуються написання текстів, збору даних, генерації зображень та збереження. При визріванні підмереж і готовності до використання продукту, створювачі підмереж також створять інтеграції додатків, що дозволять командам створювати додатки, які запитують певну підмережу. Деякі додатки (чат-бот, генератор зображень, twitter reply bot, рынок прогнозів) сьогодні існують, але немає жодних формальних стимулів для валідаторів приймати та передавати ці запити, крім грантів від фонду Bittensor.

Для надання більш яскравої ілюстрації, ось приклад того, як Bittensor може працювати, коли додатки будуть інтегровані в мережу.

Підмережі заробляють TAO на основі їх продуктивності, оціненої за допомогою корінна мережаКоренева мережа розташована над усіма підмережами, суттєво виступаючи як особливий вид підмережі, і керується 64 найбільшими підмережевими валідаторами за ставкою. Валідатори кореневої мережі ранжирують підмережі на основі їх продуктивності та періодично розподіляють емісію TAO серед підмереж. Таким чином, окремі підмережі виступають як шахтарі для кореневої мережі.

Bittensor Outlook

Bittensor все ще переживає болі при збільшенні функціональності протоколу для стимулювання генерації інтелектуальних ресурсів в різних підмережах. Майнери продовжують вигадувати нові способи атакування мережі для отримання більше нагород TAO, наприклад, трохимодифікаціявивід високо оціненого висновку, зробленого їх моделлю, та подання кількох варіацій. Пропозиції управління, що впливають на всю мережу, можуть бути подані та реалізовані тільки Тріумвірат, яка складається виключно з учасників Фонду Opentensor (важливо зауважити, що пропозиції потребують затвердження від Bittensor Сенатскладається з валідаторів Bittensor перед реалізацією). Токеноміка проекту перебуває в процесі перегляду для поліпшення стимулів для використання TAO по всіх підмережах. Проект також швидко набуває відомості за своїм унікальним підходом, з CEO одного з найпопулярніших сайтів із штучного інтелекту HuggingFaceвказуючи, що Bittensor повинен додати свої ресурси на веб-сайт.

У нещодавно опублікованому шматокрозроблений основним розробником під назвою «Bittensor Paradigm», команда висловлює свою візію щодо того, щоб Bittensor зрештою еволюціонував до стану «нейтрального до того, що вимірюється». У теорії це може дозволити Bittensor розвивати підмережі, які стимулюють будь-який тип поведінки, всі ці процеси підтримуються TAO. Існують значні практичні обмеження - найважливіше проявлення того, що ці мережі здатні масштабуватися для обробки такого різноманітного набору процесів і те, що вбудовані стимули сприяють прогресу, який перевищує централізовані пропозиції.

Створення децентралізованого стеку обчислень для моделей штучного інтелекту

Вищезазначені розділи надають загальний огляд різних типів розподіленого штучного інтелекту, що розробляються. Хоча ще ранній етап їх розвитку та прийняття, вони надають основу для екосистеми, яка в кінцевому підсумку може сприяти створенню «будівельних блоків ШІ», подібних концепції «Грошових Лего» DeFi. Компонованість бездозвільних блокчейнів відкриває можливість для кожного протоколу будувати на основі іншого, щоб забезпечити більш комплексну децентралізовану екосистему штучного інтелекту.

Наприклад, ось один спосіб, яким Акаш, Генсін та Біттензор можуть взаємодіяти, щоб відповісти на запит на висновок.

Для того, щоб було зрозуміло, це просто приклад того, що можливо у майбутньому, а не відображення поточної екосистеми, існуючих партнерств або ймовірних результатів. Обмеження взаємодії, а також інші розглянуті нижче обставини, значно обмежують можливості інтеграції сьогодні. Крім того, фрагментація ліквідності та необхідність використання кількох токенів може бути шкідливою для користувацького досвіду, що було вказавзасновниками як Akash, так і Bittensor.

Інші децентралізовані пропозиції

На додаток до обчислення, кілька інших децентралізованих інфраструктурних сервісів вже впроваджуються для підтримки зароджуваного штучного інтелекту криптовалюти. Всі їх перерахувати виходить за межі цього звіту, але кілька цікавих та ілюстративних прикладів варто згадати.

  • Океан: Децентралізований ринок даних. Користувачі можуть створювати NFT з даними, що представляють їхні дані, які можна придбати за допомогою токенів даних. Користувачі можуть як монетизувати свої дані, так і мати більший суверенітет над ними, надаючи командам, які працюють над штучним інтелектом, доступ до даних, необхідних для розробки та навчання моделей.
  • Трава: Децентралізований ринок пропускної здатності. Користувачі можуть продавати свою зайву пропускну здатність компаніям зі штучним інтелектом, які використовують її для збору даних з Інтернету. Побудований на Wynd Мережа, це не тільки дозволяє особам монетизувати свою пропускну здатність, але також надає покупцям пропускної здатності більш різноманітний набір точок зору на те, що окремі користувачі бачать в Інтернеті (оскільки доступ до Інтернету окремо налаштовується для їх IP-адреси).
  • HiveMapper: Розробка децентралізованої картографічної пропозиції, що складається з інформації, зібраної від водіїв автомобілів щоденного використання. HiveMapper покладається на штучний інтелект для тлумачення зображень, зібраних з відеореєстраторів користувачів, та винагороджує користувачів токенами за допомогу у вдосконаленні моделі штучного інтелекту через зміцнене навчання людини (RHLF).

Узагальнено, це вказує на майже нескінченні можливості дослідження децентралізованих моделей ринку, які підтримують моделі штучного інтелекту або навколишню інфраструктуру, необхідну для їх розробки. Наразі ці проекти переважно знаходяться на етапі концепції, і для демонстрації їх можливості працювати в масштабах, необхідних для надання комплексних послуг зі штучного інтелекту, потрібно провести набагато більше досліджень та розробок.

Перспектива

Децентралізовані обчислювальні пропозиції все ще знаходяться на початковій стадії розвитку. Вони тільки починають надавати доступ до передових обчислювальних можливостей для тренування найпотужніших моделей штучного інтелекту в виробництві. Щоб здобути значну частку ринку, їм потрібно продемонструвати практичні переваги порівняно з централізованими альтернативами. Потенційні тригери для більшої популярності включають:

  • Постачання/попит на відеокарти. Дефіцит відеокарт, поєднаний з стрімким зростанням обчислювального попиту, призводить до гонки відеокарт. OpenAI вже один разобмежений доступ до своєї платформи через обмеження графічного процесора. Такі платформи, як Akash і Gensyn, можуть забезпечити конкурентоспроможні альтернативи за ціною для команд, які потребують високопродуктивних обчислень. Наступні 6-12 місяців є особливо унікальною можливістю для постачальників децентралізованих обчислень залучити нових користувачів, які змушені розглядати децентралізовані пропозиції з огляду на відсутність доступу на широкому ринку. У поєднанні з дедалі продуктивнішими моделями з відкритим вихідним кодом, такими як LLaMA 2 від Meta, користувачі більше не стикаються з тими самими бар'єрами для розгортання ефективних точно налаштованих моделей, що робить обчислювальні ресурси основним вузьким місцем. Однак існування самих платформ не забезпечує адекватної пропозиції обчислень і відповідного попиту з боку споживачів. Пошук високоякісних графічних процесорів залишається складним завданням, а вартість не завжди є основною мотивацією з боку попиту. Перед цими платформами стоятиме завдання продемонструвати практичну вигоду від використання децентралізованого варіанту обчислень – чи то через вартість, стійкість до цензури, час безвідмовної роботи та відмовостійкість, чи доступність – для накопичення постійних користувачів. Рухатися їм доведеться швидко. Інфраструктура графічного процесора інвестиції та розбудовавідбувається з надзвичайною швидкістю.
  • Постанова. Регулювання продовжує залишатися зустрічним вітром для руху децентралізованих обчислень. У найближчій перспективі відсутність чіткого регулювання означає, що як провайдери, так і користувачі стикаються з потенційними ризиками використання цих послуг. Що робити, якщо постачальник надає обчислення або покупець купує обчислення у суб'єкта, який потрапив під санкції, несвідомо? Користувачі можуть вагатися, чи використовувати децентралізовану платформу, яка не має контролю та нагляду централізованої організації. Протоколи намагалися пом'якшити ці занепокоєння, включивши засоби контролю на свої платформи або додавши фільтри для доступу лише до відомих постачальників обчислень (тобто надали інформацію про свого клієнта (KYC), але для прийняття знадобляться більш надійні методи, які захищають конфіденційність, гарантуючи, що відповідність вимогам буде потрібна. У короткостроковій перспективі ми, ймовірно, побачимо появу KYC та платформ, сумісних з нормативними вимогами, які обмежують доступ до своїх протоколів для вирішення цих проблем. Крім того, дискусії навколо можливих нових нормативно-правових рамок США, найкраще проілюстровані випуском Указ Президента про безпечний, надійний та довірчий розвиток та використання штучного інтелекту, підкреслює потенціал для регуляторних заходів, які додатково обмежують доступ до GPU.
  • Цензура. Регулювання працює у дві сторони, і децентралізовані обчислювальні пропозиції можуть скористатися заходами, спрямованими на обмеження доступу до штучного інтелекту. Крім Виконавчого указу, засновник OpenAI Сем Ольтманпідтвердивв Конгресі щодо потреби у регулюючих органах, які видають ліцензії на розвиток штучного інтелекту. Обговорення щодо регулювання штучного інтелекту тільки починається, але будь-які спроби обмежити доступ або цензурувати те, що можна робити з штучним інтелектом, можуть прискорити прийняття децентралізованих платформ, які не мають таких бар'єрів. Керівництво OpenAI зазнало змін у листопаді(або його відсутності) подальше свідчить про ризики делегування прийняття рішень для найпотужнішої існуючої моделі ШІ лише кільком. Крім того, всі моделі ШІ обов'язково відображають упередження тих, хто їх створив, навмисно чи ні. Один зі способів усунення цих упереджень - зробити моделі якомога більш відкритими для налаштування та навчання, забезпечуючи можливість доступу до моделей всіх видів та упереджень будь-кому, де б він не знаходився.
  • Конфіденційність даних. Коли інтегрується зовнішніми даними та рішеннями з приводу конфіденційності, які надають користувачам автономію над їхніми даними, децентралізоване обчислення може стати більш привабливим, ніж централізовані альтернативи. Samsung стал жертвоюколи вони зрозуміли, що інженери використовували ChatGPT для допомоги в проектуванні мікросхем та розголошували чутливу інформацію ChatGPT. Phala Network та iExec стверджують, що пропонують користувачам захищені області SGX для захисту даних користувачів та невпинний дослід у повністю гомоморфному шифруванні може додатково розблокувати конфіденційність забезпеченого децентралізованого обчислення. Оскільки штучний інтелект стає все більше інтегрованим у наше життя, користувачі будуть надавати більше уваги можливості запускати моделі на додатках, в яких вони вбудовані в приватність. Користувачі також будуть вимагати послуг, які дозволять комбінувати дані, щоб вони могли безперешкодно переносити свої дані з однієї моделі в іншу.
  • Взаємодія користувача (UX). UX продовжує бути значним бар'єром для більш широкого прийняття всіх видів криптоприкладів та інфраструктури. Це не відрізняється для децентралізованих обчислювальних пропозицій, і в деяких випадках погіршується необхідністю для розробників розуміти як криптоприклад, так і штучний інтелект. Покращення потрібні від основ, таких як включення та відсутність взаємодії з блокчейном до надання того ж самого високоякісний вивідяк лідери сучасного ринку. Це очевидно в тому, що багато операційних децентралізованих обчислювальних протоколів, що надають дешеві пропозиції, мають проблеми з отриманням регулярного використання.

Розумні контракти та zkML

Розумні контракти є основним будівельним блоком будь-якої екосистеми блокчейну. З врахуванням конкретного набору умов вони автоматично виконуються та зменшують або усувають потребу в довіреній третій стороні, що дозволяє створювати складні децентралізовані додатки, такі як ті, які бачимо в DeFi. Однак на сьогоднішній день розумні контракти, в основному, обмежені в своїй функціональності тим, що вони виконуються на основі заданих параметрів, які потрібно оновлювати.

Наприклад, у розпорядженні зазначаються умови для ліквідації позиції на основі певних відношень між позикою та вартістю. Хоча це корисно в статичному середовищі, в динамічній ситуації, де ризик постійно змінюється, ці смарт-контракти повинні постійно оновлюватися, щоб врахувати зміни в ризикотерпимості, створюючи виклики для контрактів, які не керуються централізованими процесами. Наприклад, DAO, які покладаються на децентралізовані процеси управління, можуть не мати можливості реагувати достатньо швидко на системні ризики.

Смарт-контракти, які інтегрують штучний інтелект (тобто моделі машинного навчання), є одним із можливих способів підвищити функціональність, безпеку та ефективність, одночасно покращуючи загальний користувацький досвід. Однак ці інтеграції також створюють додаткові ризики, оскільки неможливо гарантувати, що моделі, що лежать в основі цих смарт-контрактів, не можуть бути використані або врахувати ситуації з довгим хвостом (на яких, як відомо, важко навчати моделі, враховуючи дефіцит вхідних даних для них).

Машинне навчання з нульовими знаннями (zkML)

Машинне навчання вимагає великих обсягів обчислень для виконання складних моделей, що перешкоджає прямому виконанню моделей ШІ всередині розумних контрактів через високі витрати. Протокол DeFi, який надає користувачам доступ до моделі оптимізації доходів, наприклад, міг би мати проблеми з виконанням цієї моделі on-chain без необхідності сплати надзвичайно високих газових витрат. Одним з рішень є збільшення обчислювальної потужності основного блокчейну. Однак це також збільшує вимоги до набору перевіряючих ланцюга, що потенційно підриває властивості децентралізації. Замість цього деякі проекти досліджують використання zkML для перевірки вихідних даних в безпечний спосіб без потреби інтенсивних обчислень on-chain.

Один зазвичайподілився прикладом, який ілюструє корисність zkML, коли користувачу потрібно, щоб хтось інший обробив дані через модель, а також перевірив, що їхній контрагент дійсно запустив правильну модель. Можливо, розробник використовує децентралізованого постачальника обчислень для навчання своїх моделей і переймається тим, що постачальник намагається зекономити, використовуючи дешеву модель з майже непомітною різницею в виведенні. zkML дозволяє постачальнику обчислень обробляти дані через їхні моделі, а потім генерувати доказ, який можна перевірити на ланцюгу, щоб довести, що виведення моделі для заданого вводу є правильним. У цьому випадку постачальник моделей матиме додаткову перевагу в тому, що зможе пропонувати свої моделі, не розголошуючи базові ваги, що породжують виведення.

Можна було б зробити і навпаки. Якщо користувач хоче запустити модель, використовуючи свої дані, але не хоче, щоб проект, що надає модель, мав доступ до його даних з міркувань конфіденційності (наприклад, у випадку медичного огляду або конфіденційної ділової інформації), тоді користувач може запустити модель зі своїми даними, не надаючи їх, а потім перевірити, чи він запустив правильну модель за допомогою доказу. Ці можливості значно розширюють простір для інтеграції штучного інтелекту та функціональності смарт-контрактів, усуваючи непомірні обчислювальні обмеження.

Інфраструктура та інструменти

У зв'язку з раннім станом простору zkML розробка переважно спрямована на побудову інфраструктури та інструментів, необхідних для команд для перетворення їх моделей та виводів у докази, які можуть бути перевірені на ланцюжку. Ці продукти абстрагуються від аспекту нульового знання розробки наскільки це можливо.

EZKL та Gizaє два проекти, які будують це засобом надання підтверджених доказів виконання моделі машинного навчання. Обидва допомагають командам будувати моделі машинного навчання, щоб забезпечити можливість виконання цих моделей таким чином, щоб результати можна було перевірити на ланцюжку без довіри. Обидва проекти використовують відкритий обмін нейронними мережами (ONNX) для перетворення моделей машинного навчання, написаних мовами загального вжитку, такими як TensorFlow та Pytorch, у стандартний формат. Потім вони виводять версії цих моделей, які також видають zk-докази при виконанні. EZKL є відкритим джерелом і видає zk-SNARKS, тоді як Giza є закритим джерелом і видає zk-STARKS. Обидва проекти наразі підтримують тільки EVM.

EZKL продемонстрував значний прогрес протягом останніх кількох місяців у вдосконаленні свого рішення zkML, головним чином спрямованого на зниження витрат, покращення безпеки, та прискорення генерації доказів. Наприклад, у листопаді 2023 року EZKL інтегрував нову відкриту бібліотеку GPU, яка зменшує час агрегованого доказу на 35%, а в січні EZKL оголошеноЛіліт, програмне рішення для інтеграції високопродуктивних обчислювальних кластерів та оркестрування одночасних завдань при використанні системи доведення EZKL. Гіза унікальна тим, що, крім забезпечення засобів для створення перевірних моделей машинного навчання, вони також планують впровадити веб3 еквівалентHugging Face, відкриваючи ринок користувачів для співпраці та спільного використання моделей zkML, а також поступово інтегруючи децентралізовані обчислювальні пропозиції. У січні EZKL випустив оцінка показниківпорівняння продуктивності EZKL, Giza та RiscZero (пор discussed below). EZKL продемонстрував швидші часи доведення та використання пам'яті.


Modulus Labs також розробляє нову техніку доказу zk, спеціально підготовлену для моделей штучного інтелекту. Modulus опублікував статтю під назвою Вартість інтелекту (натякаючи на неймовірно високі витрати на запуск моделей штучного інтелекту в ланцюжку), які проводили порівняльний аналіз існуючих на той час систем захисту від zk, щоб визначити можливості та вузькі місця для покращення zk-proof-моделей AI. Опублікований у січні 2023 року документ демонструє, що існуючі пропозиції просто занадто дорогі та неефективні, щоб забезпечити масштабні програми штучного інтелекту. Ґрунтуючись на своїх початкових дослідженнях, у листопаді Modulus @ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">представлено Remainder, спеціалізований постачальник із нульовим розголошенням, створений спеціально для скорочення витрат і часу перевірки для моделей штучного інтелекту з метою зробити економічно доцільним для проєктів масштабну інтеграцію моделей у свої смарт-контракти. Їхня робота є закритим вихідним кодом і тому не може бути порівнянна з вищезазначеними рішеннями, але нещодавно на неї посилалися в статті Віталіка Публікація в блозіпро крипто та штучний інтелект.

Розробка інструментів та інфраструктури є критичними для майбутнього розвитку простору zkML, оскільки значно зменшує тертіння для команд, які потребують розгортання zk схем, необхідних для запуску перевірки обчислень офлайн. Створення безпечних інтерфейсів, які дозволяють некриптознавцям, що працюють в області машинного навчання, привести свої моделі на ланцюжок, дозволить більшій експериментації застосунків з дійсно новими випадками використання. Інструменти також вирішують головний перешкоду для більшої прийнятості zkML - відсутність розробників, які мають знання і зацікавлені працювати на перетині нуль-знань, машинного навчання та криптографії.

Копроцесори

Додаткові рішення в розробці, які називають «копроцесорами», включаютьRiscZero,Аксіома, та ОбрядТермін копроцесора в основному семантичний - ці мережі виконують багато різних ролей, включаючи підтвердження обчислень поза ланцюжком на ланцюжку. Як і з EZKL, Giza та Modulus, вони мають на меті повністю абстрагувати процес генерації доказів знання нуля, створюючи фактично віртуальні машини нуль-знань, здатні виконувати програми поза ланцюжком та генерувати докази для верифікації на ланцюжку. RiscZero та Axiom можуть сервіспрості моделі штучного інтелекту, оскільки вони призначені для того, щоб бути більш загальними копроцесорами, тоді як Ritual спеціально створений для використання з моделями штучного інтелекту.

Infernetє першою екземпляром Ritual і включає в себе Infernet SDK, який дозволяє розробникам подавати запити на висновок в мережу і отримувати вихідні дані та докази (необов'язково) у відповідь. Вузол Infernet отримує ці запити та обробляє обчислення поза мережею, перш ніж повернути вихідні дані. Наприклад, DAO може створити процес для забезпечення того, щоб усі нові пропозиції щодо управління відповідали певним передумовам перед подачею. Щоразу, коли подається нова пропозиція, контракт на управління ініціює запит на висновок через Infernet, викликаючи модель штучного інтелекту, навчену DAO. Модель розглядає пропозицію, щоб переконатися, що всі необхідні критерії були подані, і повертає вихідні дані та докази, схвалюючи або відхиляючи подання пропозиції.

Протягом наступного року команда Ritual планує впровадити додаткові функції, які утворюють базовий інфраструктурний шар, який називається Ritual Superchain. Багато з раніше обговорених проектів можуть підключатися до Ritual як постачальники послуг. Вже команда Ritual інтегрувалася з EZKL для генерації доказів і, ймовірно, незабаром додаси функціонал від інших провідних постачальників. Вузли Infernet на Ritual також можуть використовувати графічні процесори Akash або io.net та запитувати моделі, навчені на підмережах Bittensor. Їхня кінцева мета - стати провідним постачальником відкритої AI-інфраструктури, здатної обслуговувати завдання машинного навчання та інші завдання, пов'язані з штучним інтелектом, з будь-якої мережі для будь-якого завантаження.

Додатки

zkML допомагаєузгодитисуперечність між блокчейнами та штучним інтелектом, де перші мають вбудовані обмеження ресурсів, а останні потребують великої кількості обчислень та даних. Як один із засновників Gizaпокласти, «Використання настільки різноманітне ... це трохи нагадує запитання в ранні дні Ethereum, які є використанням смарт-контрактів ... те, що ми робимо, це просто розширення використання смарт-контрактів». Однак, як видно з вищезазначеного, розвиток сьогодні відбувається переважно на рівні інструментів та інфраструктури. Додатки все ще перебувають на стадії досліджень, командам випадає завдання довести, що значення, що створюється в результаті впровадження моделей з використанням zkML, перевищує складність і витрати на його виконання.

Деякі застосунки сьогодні включають:

  • Децентралізована фінансова справа. zkML покращує дизайн простору для DeFi, підвищуючи можливості смарт-контрактів. Протоколи DeFi надають моделям машинного навчання великі обсяги перевірених та незмінних даних, які можуть бути використані для генерації стратегій генерації доходів чи торгівлі, аналізу ризиків, UX та багато іншого. Наприклад, Giza має партнерствоспівпрацює з Yearn Finance для створення концепції автоматизованого двигуна оцінки ризику для нових сховищ v3 року Yearn. Компанія Modulus Labs @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">worked with Lyra Finance on incorporating machine learning into their AMMs, is співпрацюєз використанням Ion Protocol для впровадження моделі для аналізу ризику валідатора, і допомагаєРезультатперевірте їхні AI-приводомі цінові канали NFT. Протоколи, такі як NOYA(який використовує EZKL) таМозаїканадають доступ до власних позаланцюжкових моделей, які надають користувачам можливість автоматизованого збирання доходів, дозволяючи їм перевіряти вхідні дані та докази на ланцюжку.Спектральне фінансуваннябудує онлайнові кредитні скорингові двигуни для передбачення ймовірності того, що позичальники Compound або Aave не сплатять свої позики. Ці так звані продукти "De-Ai-Fi" ймовірно стануть набагато поширенішими в майбутні роки завдяки zkML.
  • Ігри. Ігрова сфера давно вважалася готовою до розриву і вдосконалення за допомогою публічних блокчейнів (щодо криптовалюти та геймінгу див. звіт Galaxy Digital - Історія геймінгу та його майбутнє Web3). zkML робить можливим геймінг на ланцюжку з штучним інтелектом. Модульні Лабораторіївже реалізувала концепції для простих онлайн-ігор на ланцюжку.Leela проти світу - це гра теоретичної шахової гри, в якій користувачі зіткнуться з моделлю шахів штучного інтелекту, з zkML, що підтверджує, що кожен хід Леели заснований на моделі, яку гра вказує, що вона працює. Так само, команди використовували фреймворки EZKL для створення простих співочі конкурси та онлайн-хрестики-нулики. Картридж використовує Giza, щоб дозволити командам розгортати повністю онлайн-ігри, останнім часом виділенняпроста гра з штучним інтелектом, де користувачі змагаються, щоб створити кращі моделі для автомобіля, який намагається уникнути перешкод. Хоча просто, ці концепції вказують на майбутні реалізації, які дозволять більш складні верифікації на ланцюжку, такі як вдосконалені NPC-актори, здатні взаємодіяти з економіками в грі, як це бачимо в@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena, гра супер-братів, схожа на гру Super Smash Brothers, де гравці тренують своїх бійців, які потім використовуються як моделі штучного інтелекту для бою.
  • Ідентичність, походження та конфіденційність. Крипто вже застосовується використовуєтьсяяк засіб перевірки автентичності та боротьби з зростаючою кількістю створеного/зміненого штучного інтелекту вмісту та глибоких фейків. zkML може сприяти цим зусиллям. WorldCoin - це рішення доведення особистості, яке вимагає від користувачів сканувати їхні іриси для створення унікального ідентифікатора. У майбутньому біометричні ідентифікатори можуть бутисамокерованийна особистих пристроях за допомогою зашифрованого сховища з потрібними моделями для перевірки цих біометричних даних, які працюють локально. Користувачі можуть надати докази своїх біометричних даних, не розкриваючи, хто вони є, борючись з сібіл-атаками, забезпечуючи при цьому конфіденційність. Це також може бути застосовано до інших висновків, що потребують конфіденційності, таких як використання моделейдля аналізу медичних даних / зображень для виявлення захворювань, перевірки особистості та розробки відповідних алгоритмів у додатках для знайомств або для страхових та кредитних агентств, які потребують підтвердження фінансової інформації.

Перспектива

zkML все ще знаходиться на експериментальному етапі, більшість проєктів спрямовані на розбудову інфраструктури та доведення концепцій до життя. Сьогоднішні виклики включають обчислювальні витрати, обмеження пам'яті, складність моделі, обмежений набір інструментів і інфраструктури, а також талант розробника. Просто кажучи, потрібно виконати значно більше роботи, перш ніж zkML може бути впроваджений у такому масштабі, який потрібен для споживчих товарів.

По мірі того, як галузь дозріває, і ці обмеження вирішуються, zkML стане критичним компонентом інтеграції штучного інтелекту та криптографії. В основі zkML обіцяє можливість перенесення обчислень будь-якого розміру з off-chain на on-chain, зберігаючи ті ж самі або близькі до тих же гарантії безпеки, якщо б обчислення було виконано on-chain. Доки це бачення не здійсниться, ранні користувачі технології продовжуватимуть збалансовувати компроміси між конфіденційністю та безпекою zkML та ефективністю альтернатив.

AI Агенти

Одним із більш захоплюючих інтеграцій штучного інтелекту та криптовалюти є постійні експерименти з AI Agents. Агенти - це автономні боти, здатні отримувати, інтерпретувати та виконувати завдання за допомогою моделі штучного інтелекту. Це може бути все, від завжди доступного особистого помічника, який налаштований під ваші уподобання, до найму фінансового агента, який управляє та коригує ваш портфель відповідно до ваших уподобань у ризику.

Агенти та крипто добре поєднуються разом через інфраструктуру платежів без дозволів та довіри, яку надає крипто. Після навчання агентам може бути видано гаманець, щоб вони могли проводити угоди зі смарт-контрактами самостійно. Прості агенти сьогодні, наприклад, можуть сканувати Інтернет для отримання інформації, а потім робити угоди на ринках передбачень на основі моделі.

Постачальники агентів

Морфеус- це один з найновіших проектів агентів з відкритим кодом, які з'являться на ринку Ethereum та Arbitrum у 2024 році. Його біла книга була анонімно опублікована у вересні 2023 року, надаючи фундамент для формування спільноти та побудови навколо (включаючи відомих фігур, таких як Ерік Воргіс. Біла книга містить завантажуваний Протокол розумного агента, який є відкритим додатком LLM, який може бути запущений локально, керується гаманцем користувача та взаємодіє з розумними контрактами. Він використовує Рейтинг смарт-контрактівщоб допомогти агенту визначити, які смарт-контракти безпечно взаємодіяти на підставі критеріїв, таких як кількість оброблених транзакцій.

У білій книзі також надається рамка для розбудови мережі Morpheus, така як інцентивні структури та інфраструктура, необхідна для зроблення операційного протоколу Smart Agent. Це включає стимулювання учасників для створення фронтендів для взаємодії з агентами, API для розробників для створення додатків, які можуть підключатися до агентів, щоб вони могли взаємодіяти один з одним, та хмарні рішення для надання користувачам можливості отримати доступ до обчислень та сховища, необхідних для запуску агента на пристрої на краю. Початкове фінансування проекту стартувало в початковому лютому, і повний протокол очікується запустити в 2-му кварталі 2024 року.

Децентралізована автономна інфраструктурна мережа (DAIN) - це новий протокол інфраструктури агента, який будує економіку агента-до-агента на Solana. DAIN має на меті зробити так, щоб агенти з різних бізнесів могли безперешкодно взаємодіяти один з одним за допомогою універсального API, значно відкриваючи простір для дизайну для штучних інтелектуальних агентів з фокусом на реалізацію агентів, які можуть взаємодіяти як з продуктами web2, так і з продуктами web3. У січні DAIN оголосив про свій перший партнерство з Asset Shield, що дозволяє користувачам додавати до свого мультипідпису «агентів, які підписують», які здатні інтерпретувати транзакції та схвалювати/відхиляти на основі правил, встановлених користувачем.

Fetch.AIбув одним з перших протоколів штучного інтелекту, що був розгорнутий і розробив екосистему для побудови, розгортання та використання Агентів on-chain з використанням свого токену FET і Fetch.AIгаманець. Протокол надає широкий набір інструментів та додатків для використання Агентів, включаючи функціональність в гаманці для взаємодії з агентами та їх замовлення.

Autonolas, чиї засновники включають попереднього члена команди Fetch, є відкритим ринком для створення та використання децентралізованих штучних інтелектуальних агентів. Autonolas також надає набір інструментів для розробників для створення штучних інтелектуальних агентів, які розміщені офлайн та можуть підключатися до кількох блокчейнів, включаючи Polygon, Ethereum, Gnosis Chain та Solana. У них наразі є кілька активних доказів концепції агентівпродуктивключаючи використання в ринках передбачень та управлінні DAO.

SingularityNetбудує розподілене ринку для AI агентів, де люди можуть розгортати AI агентів з вузькою спрямованістю, які можуть бути орендовані іншими людьми або агентами для виконання складних завдань. Інші, як ЗміненийStateМашина, будують інтеграції AI Agent з NFT. Користувачі створюють NFT з випадковими характеристиками, які надають їм сильні і слабкі сторони для різних завдань. Цих агентів можна навчати для підвищення певних характеристик для використання в гральних іграх, DeFi або як віртуальний помічник та обмінювати їх з іншими користувачами.

Загалом ці проекти уявляють майбутню екосистему агентів, здатних працювати разом не лише для виконання завдань, а й для допомоги у створенні штучного загального інтелекту. Справжньо винахідливі агенти матимуть здатність автономно виконувати будь-яке завдання користувача. Наприклад, замість того, щоб переконатися, чи вже агент інтегрувався з зовнішнім API (наприклад, веб-сайтом для бронювання подорожей), перед використанням його, повністю автономні агенти матимуть здатність зрозуміти, як найняти іншого агента для інтеграції API, а потім виконати завдання. З точки зору користувача не буде потреби перевіряти, чи агент може виконати завдання, оскільки агенти зможуть визначити це самостійно.

Bitcoin та штучні інтелектуальні агенти

У липні 2023 року, Lightning Labsзапустив доказову реалізацію використання агентів в мережі Lightning під назвою LangChain Bitcoin Suite. Продукт особливо цікавий, оскільки він спрямований на вирішення зростаючої проблеми у світі веб-2 – заборонений та дорогийКлючі API для веб-застосунків.

LangChain вирішує це, надаючи розробникам набір інструментів, що дозволяють агентам купувати, продавати та утримувати Bitcoin, а також запитувати ключі API та надсилати мікроплатежі. У традиційних платіжних системах невеликі мікроплатежі вважаються накладними через комісії, але на мережі Lightning агенти можуть надсилати необмежену кількість мікроплатежів щоденно з мінімальними комісіями. У поєднанні з рамками API-інтерфейсу для вимірювання платежів L402 компанії зможуть налаштовувати вартість доступу до своєї API в залежності від збільшення та зменшення використання, замість встановлення єдиної накладної стандартної вартості.

У майбутньому, коли ланцюгова активність переважно зумовлена агентами, які взаємодіють між собою, щось подібне буде необхідним, щоб забезпечити можливість взаємодії агентів один з одним способом, який не є витратним. Це є першим прикладом того, як використання агентів на бездозвільних та витратно-ефективних платіжних мережах відкриває можливості для нових ринків та економічних взаємодій.

Перспектива

Простір Агентів все ще є початковим. Проекти тільки починають впроваджувати функціональних агентів, які можуть обробляти прості завдання з використанням їхньої інфраструктури - яка часто доступна лише досвідченим розробникам та користувачам. Проте з часом одним із найбільших впливів штучного інтелекту на криптовалюту буде покращення UX в усіх вертикалях. Операції почнуть переходити від кліків до текстових команд, користувачі зможуть взаємодіяти з агентами на ланцюжку через LLMs. Вже команди, подібні до Гаманець Dawnвводять чат-боти гаманці для користувачів для взаємодії на ланцюжку.

Крім того, невідомо, як можуть працювати агенти в Інтернеті 2, де фінансові засоби залежать від регульованих банківських установ, які не працюють цілодобово і не можуть здійснювати безперервні міжнародні транзакції. Як Lyn Alden Він підкреслив, що крипторейки особливо привабливі порівняно з кредитними картками через відсутність чарджбеків і можливості обробляти мікротранзакції. Однак, якщо агенти стануть більш поширеним засобом транзакцій, цілком ймовірно, що існуючі платіжні провайдери та додатки швидко впроваджують інфраструктуру, необхідну для роботи на існуючих фінансових рейках, пом'якшуючи деякі переваги використання криптовалюти.

Наразі агенти ймовірно будуть обмежені детерміністичними криптовалютними транзакціями, де певний вихід гарантується для певного входу. Обидва моделі, які визначають здатність цих агентів вирішувати, як виконувати складні завдання, та засоби, які розширюють обсяг того, що вони можуть досягти, вимагають подальшого розвитку. Для того щоб криптовалютні агенти стали корисними поза новаторськими використаннями криптовалют на ланцюжку, потрібна ширша інтеграція та прийняття криптовалюти як форми платежу, а також регулятивна ясність. Однак, коли ці компоненти розвиватимуться, агенти готові стати одними з найбільших споживачів децентралізованого обчислення та обговорених вище рішень zkML, діючи в автономному недетермінованому способі для отримання та вирішення будь-якого завдання.

Висновок

Штучний інтелект вводить у криптографію ті ж інновації, які ми вже бачимо в інтернеті 2.0, покращуючи все від розвитку інфраструктури до користувацького досвіду та доступності. Однак проекти все ще знаходяться на ранніх етапах свого розвитку, і найближча інтеграція криптографії та штучного інтелекту буде в основному підкорена офлайн інтеграціям.

Продукти, подібні доСпілотбуде“10x”ефективність розробника, з layer 1sіДеФізастосунки вже створюються на платформах розробки з підтримкою штучного інтелекту в співпраці з великими корпораціями, такими як Microsoft. Компанії, подібніCub3.ai та Тестовий пристрійрозробляють інтеграції штучного інтелекту для аудиту смарт-контрактів та моніторингу загроз у реальному часі для підвищення безпеки на ланцюжку. І чат-боти LLM навчаються за допомогою даних з ланцюжка, документів протоколу та додатків, щоб надавати користувачам покращену доступність та UX.

Для більш продуманих інтеграцій, які дійсно використовують основні технології криптовалюти, виклик залишається в демонстрації того, що впровадження рішень штучного інтелекту на ланцюжку є технічно можливим і економічно доцільним на великому масштабі. Розвиток децентралізованих обчислень, zkML та AI Agents вказує на перспективні вертикалі, які закладають фундамент для майбутнього, де криптовалюта та штучний інтелект глибоко переплетені.

Disclaimer:

  1. Ця стаття взята з [галактика]. Усі авторські права належать оригінальному автору [Лукас Тчейан]. Якщо є зауваження до цього повторного видання, будь ласка, зверніться до Ворота Навчаннякоманда, і вони оперативно займуться цим.
  2. Відповідальність за відмову: Погляди та думки, висловлені в цій статті, є виключно тими автора і не становлять жодних інвестиційних порад.
  3. Переклади статті на інші мови виконуються командою Gate Learn. Якщо не зазначено інше, копіювання, поширення або плагіатування перекладених статей заборонено.

Розуміння перетину Крипто та ШІ

Розширений2/22/2024, 5:28:27 AM
Експерименти на перетині криптовалюти і штучного інтелекту рухаються за тими ж силами, що лежать в основі найбільш перспективних випадків використання криптовалют - доступ до шарів координації без дозволу та безпеки, що полегшують передачу вартості більш ефективно.

Вступ

Поява публічних блокчейнів - один з найглибших проривів в історії комп'ютерних наук. Але розвиток штучного інтелекту буде мати глибокий вплив на наш світ. Якщо технологія блокчейну надає новий шаблон для вирішення транзакцій, зберігання даних та конструювання систем, то штучний інтелект є революцією в обчисленнях, аналізі та доставці контенту. Інновації в цих двох галузях відкривають нові використання, які можуть прискорити прийняття обох в найближчі роки. У цьому звіті досліджуються нинішні інтеграції криптографії та штучного інтелекту з урахуванням нових використань, які намагаються зблизити ці дві галузі, використовуючи потужність обох. Зокрема, у цьому звіті розглядаються проекти, що розробляють децентралізовані протоколи обчислень, інфраструктуру машинного навчання з нульовими знаннями (zkML) та штучні інтелектуальні агенти.

Криптовалюта надає штучному інтелекту рівень розрахунків без дозволів, без довіри та складений. Це відкриває такі варіанти використання, як підвищення доступності апаратного забезпечення за допомогою децентралізованих обчислювальних систем, створення агентів штучного інтелекту, які можуть виконувати складні завдання, що вимагають обміну цінностями, а також розробка рішень для ідентифікації та походження для боротьби з атаками Sybil і глибокими фейками. Штучний інтелект приносить криптовалюті багато тих самих переваг, які ми бачимо у Web 2. Це включає покращений користувацький досвід (UX) як для користувачів, так і для розробників завдяки великомовним моделям (тобто спеціально навченим версіям ChatGPT і Copilot), а також потенціал для значного покращення функціональності смарт-контрактів та автоматизації. Блокчейни – це прозоре середовище, багате на дані, яке потрібне штучному інтелекту. Але блокчейни також мають обмежені обчислювальні потужності, що є серйозною перешкодою для прямої інтеграції моделей штучного інтелекту.

Основною силою, яка підтримує невпинні експерименти та кінцеве прийняття на перехресті крипто та штучного інтелекту, є те саме, що підтримує більшість найбільш перспективних випадків використання криптовалюти - доступ до шару координації без дозволу та бездовірчивої, який краще сприяє передачі вартості. Одержавши величезний потенціал, учасники у цьому просторі повинні розуміти основні способи взаємодії цих двох технологій.

Основні висновки:

  • В інтеграції криптовалют та штучного інтелекту в найближчому майбутньому (від 6 місяців до 1 року) домінуватимуть програми штучного інтелекту, які підвищать ефективність розробників, можливість контролю та безпеку смарт-контрактів, а також доступність для користувачів. Ці інтеграції не є специфічними для криптовалют, але покращують ончейн-розробника та користувацький досвід.
  • Децентралізовані пропозиції обчислень впроваджують пропозиції з штучним інтелектом, так само як існує значна нестача високопродуктивних GPU, що забезпечує підтримку для прийняття.
  • Досвід користувача та регулювання лишаються перешкодами для залучення клієнтів для децентралізованого обчислення.Останні події в OpenAIа такожпоточні регуляторні перевіркиу Сполучених Штатах, проте, висвітлюють ціннісну пропозицію мереж штучного інтелекту без дозволу, відсутність цензури, децентралізовані.
  • Інтеграції штучного інтелекту на ланцюжку, особливо для смарт-контрактів, які можуть використовувати моделі штучного інтелекту, вимагають вдосконалення технології zkML та інших обчислювальних методів, які підтверджують обчислення офлайн на ланцюжку. Відсутність комплексних інструментів та талановитих розробників, а також високі витрати, є перешкодами для прийняття.
  • AI агенти добре підходять для крипто, де користувачі (або самі агенти) можуть створювати гаманці для проведення операцій з іншими сервісами, агентами або людьми. Це наразі неможливо здійснити за допомогою традиційних фінансових засобів. Для більш широкого поширення потрібна додаткова інтеграція з не-криптовалютними продуктами.

Термінологія

Штучний інтелект - це використання обчислень та машин для імітації мислення та вміння вирішувати проблеми людини.

Нейронні мережі - один із методів навчання моделей штучного інтелекту. Вони пропускають вхідні дані через окремі шари алгоритмів, вдосконалюючи їх, поки не буде отриманий бажаний результат. Нейронні мережі складаються з рівнянь, у яких є ваги, які можуть бути змінені для зміни виходу. Для їхнього навчання може знадобитися неймовірна кількість даних і обчислень, щоб їх виходи були точними. Це один із найпоширеніших способів розробки моделей штучного інтелекту (ChatGPT використовує процес нейронної мережі, який ґрунтується натрансформатори).

Тренування - це процес, за допомогою якого розробляються нейромережі та інші моделі штучного інтелекту. Для навчання моделей правильно інтерпретувати вхідні дані та виробляти точні виходи потрібні великі обсяги даних. Протягом процесу тренування ваги рівняння моделі постійно змінюються, доки не буде отриманий задовільний вихід. Тренування може бути дуже дорогим. Наприклад, ChatGPT, використовує десятки тисяч власних графічних процесорів для обробки своїх даних. Команди з меншими ресурсами часто покладаються на спеціалізованих постачальників обчислень, таких як Amazon Web Services, Azure і Google Cloud Providers.

Виведення - це фактичне використання моделі штучного інтелекту для отримання виводу або результату (наприклад, використання ChatGPT для створення змісту для статті про перетин криптографії та штучного інтелекту). Виведення використовуються протягом всього процесу навчання та у кінцевому продукті. Вони можуть бути дорогими для виконання навіть після завершення навчання через обчислювальні витрати, але вони менше обчислювально інтенсивні, ніж навчання.

Докази з нульовим розголошенням (ZKP) дозволяють перевірити твердження без розкриття основної інформації. Це корисно в криптовалюті з двох основних причин: 1) конфіденційність і 2) масштабування. З міркувань конфіденційності це дозволяє користувачам здійснювати транзакції, не розкриваючи конфіденційну інформацію, наприклад, скільки ETH знаходиться в їхньому гаманці. Для масштабування це дозволяє доводити офчейн-обчислення в ланцюжку швидше, ніж повторно виконувати обчислення. Це дозволяє блокчейнам і додаткам дешево виконувати обчислення поза мережею, а потім перевіряти їх у мережі. Для отримання додаткової інформації про нульове знання та його роль у віртуальній машині Ethereum, будь ласка, перегляньте звіт Крістін Кім zkEVMs: Майбутнє масштабованості Ethereum.

AI/Крипто Карта ринку

Проекти на перетині штучного інтелекту та криптовалюти все ще будують основну інфраструктуру, необхідну для підтримки взаємодії на ланцюжку штучного інтелекту на велику відстань.

З'являються ринки децентралізованих обчислень, які постачають велику кількість фізичного обладнання, насамперед у вигляді графічних процесорів (GPU), необхідних для навчання та виведення моделей штучного інтелекту. Ці двосторонні маркетплейси з'єднують тих, хто орендує та хоче орендувати обчислення, полегшуючи передачу вартості та перевірку обчислень. У рамках децентралізованих обчислень з'являється кілька підкатегорій, які надають додаткову функціональність. На додаток до двосторонніх ринків, у цьому звіті будуть розглянуті постачальники послуг з навчання машинному навчанню, які спеціалізуються на обслуговуванні перевірених результатів навчання та точного налаштування, а також проекти, що працюють над підключенням обчислень та генерації моделей для досягнення штучного загального інтелекту, який також часто називають мережами стимулювання інтелекту.

zkML - це нове напрямок уваги для проектів, які бажають надавати перевірені виходи моделі on-chain в ефективний та своєчасний спосіб. Ці проекти в основному дозволяють додаткам обробляти важкі запити на обчислення поза ланцюжком, а потім публікувати on-chain перевірений вихід, доводячи, що робоче навантаження поза ланцюжком завершене і точне. zkML є дорогим та часово витратним у його поточному втіленні, але все більше використовується як рішення. Це очевидно в зростаючій кількості інтеграцій між постачальниками zkML та додатками DeFi / іграми, які хочуть використовувати моделі штучного інтелекту.

Достатня кількість обчислень та можливість перевірки цих обчислень на ланцюжку відкриває двері для агентів штучного інтелекту на ланцюжку. Агенти - це навчені моделі, здатні виконувати запити від імені користувача. Агенти відкривають можливість значно покращити взаємодію на ланцюжку, дозволяючи користувачам виконувати складні транзакції, лише розмовляючи з чат-ботом. Однак на сьогоднішній день проекти агентів все ще фокусуються на розвитку інфраструктури та інструментів для простого і швидкого розгортання.

Децентралізоване обчислення

Огляд

Штучний інтелект потребує великих обсягів обчислень як для тренування моделей, так і для запуску інференції. Протягом останнього десятиріччя, із зростанням складності моделей, вимоги до обчислень зросли експоненційно. Наприклад, OpenAI,знайшлищо між 2012 та 2018 роками вимоги до обчислень для своїх моделей зросли з подвоєнням кожні два роки до кожних три з половиною місяці. Це призвело до стрімкого зростання попиту на GPU, навіть деякі криптовалютні шахраї.перепрофілювання своїх графічних процесорівнадавати послуги хмарного обчислення ( @jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">Детальніше про це можна прочитати в нашому щорічному звіті про майнінг біткоїну). При зростанні конкуренції за доступ до обчислень і зростанні витрат кілька проектів використовують криптовалюту для надання децентралізованих рішень у сфері обчислень. Вони пропонують обчислення на вимогу за конкурентоспроможними цінами, щоб команди могли витренувати та запустити моделі за доступними цінами. У деяких випадках компромісом може бути продуктивність та безпека.

Сучасні відеокарти, такі як ті, що виробленівід Nvidia користуються попитом. У вересні Tetherпридбанийстейк в Northern Data, німецькому біткойн-майнеру, який, за повідомленнями, заплатив 420 мільйонів доларів за придбання 10 000 H100 GPU (одного з найбільш передових GPU для навчання штучного інтелекту).ЧекайтеЧас на кращий апарат може становити принаймні шість місяців, а в багатьох випадках і довше. Покращує ситуацію той факт, що компаніям часто доводиться укладати довгострокові контракти на обсяги обчислень, які вони можуть навіть не використовувати. Це може призвести до ситуацій, коли є вільні обчислення, але вони недоступні на ринку. Децентралізовані системи обчислень допомагають вирішити ці ринкові неефективності, створюючи вторинний ринок, де власники обчислень можуть здавати в оренду свій вільний обсяг в будь-який момент, відкриваючи нові можливості.

Поза конкурентоспроможною ціноутворенням та доступністю ключовою пропозицією децентралізованого обчислення є резистентність до цензури. Сучасна розробка штучного інтелекту все більше контролюється великими технологічними компаніями з безпрецедентним доступом до обчислень та даних. Перша ключова тема, виділена в тексті, єЗвіт про індекс штучного інтелектуРічна звітність за 2023 рік свідчить про те, що промисловість все більше випереджає академію в розробці моделей штучного інтелекту, централізуючи контроль в руках кількох технологічних лідерів. Це викликало обурення через їхню здатність мати величезний вплив на формулювання норм і цінностей, що лежать в основі моделей штучного інтелекту, особливо після регулюваннятиснецими ж технологічними компаніями для обмеження розвитку штучного інтелекту поза їхнім контролем.

Децентралізовані обчислювальні вертикалі

Декілька моделей для децентралізованого обчислення з'явилися в останні роки, кожна зі своїм власним фокусом та компромісами.

Узагальнене обчислення

Проекти, такі як Akash, io.net, iExec, Cudos та багато інших, є децентралізованими обчислювальними застосунками, які пропонують доступ до спеціалізованих обчислень для навчання штучного інтелекту та висновків, а також до даних та загальних рішень з обчислень.

На даний момент Akash є єдиною «суперхмарною» платформою з повністю відкритим вихідним кодом. Це мережа підтвердження частки володіння з використанням Cosmos SDK. AKT, нативний токен Akash, використовується для захисту мережі, як форма оплати та для заохочення участі. Akash запустила свою першу основну мережу в 2020 році, зосереджену на наданні інклюзивного ринку хмарних обчислень, який спочатку включав послуги з оренди сховищ і процесорів. У червні 2023 року Акаш запущенийновий тестовий майданчик, спрямований на відеокарти та у вереснізапущениййого GPU mainnet дозволяє користувачам орендувати GPU для навчання та висновків з штучного інтелекту.

У екосистемі Akash існують два основних учасники - Орендарі та Постачальники. Орендарі - це користувачі мережі Akash, які бажають купувати обчислювальні ресурси. Постачальники - це постачальники обчислювальних ресурсів. Для збігу орендарів та постачальників Akash покладається на процес обертального аукціону. Орендарі подають свої вимоги щодо обчислень, в межах яких вони можуть вказати певні умови, такі як місцезнаходження серверів або тип обладнання, що проводить обчислення, та суму, яку вони готові заплатити. Постачальники потім подають свою ціну, з найнижчою пропозицією, яка отримує завдання.

Валідатори Akash підтримують цілісність мережі. Набір валідаторів наразі обмежений 100 і планується поступово збільшуватися з часом. Будь-хто може стати валідатором, поставивши в стейкінг більше AKT, ніж поточний валідатор з найменшою сумою AKT у стейкінгу. Власники АКТ також можуть делегувати свій АКТ валідаторам. Комісії за транзакції та винагороди за блоки для мережі розподіляються в AKT. Крім того, за кожну оренду мережа Akash отримує «плату за взяття» за ставкою, визначеною спільнотою, яка розподіляється між власниками AKT.

Другорядні ринки

Децентралізовані ринки обчислень спрямовані на заповнення неефективностей на існуючому ринку обчислень. Обмеження постачання призводять до того, що компанії накопичують обчислення поза тим, що їм може знадобитися, і постачання ще більше обмежене через структуру контрактів з хмарними постачальниками, які затримують клієнтів в довгострокових контрактах, навіть якщо продовжений доступ може бути не потрібним. Децентралізовані платформи обчислень розблоковують нове постачання, дозволяючи будь-якій людині у світі з потрібними обчисленнями стати постачальником.

Залишається побачити, чи попит на графічні процесори для навчання штучного інтелекту перетвориться на довгострокове використання мережі на Akash. Наприклад, Akash давно надає ринок для центральних процесорів, пропонуючи подібні послуги до централізованих альтернатив в 70-80%знижка. Проте низькі ціни не призвели до значного зростання. Активні оренди в мережі вирівнялися, в середньому становлячи лише 33% обчислень, 16% пам'яті та 13% зберігання для другого кварталу 2023 року. Хоча це вражаючі показники для прийняття on-chain (на відміну від провідного постачальника зберігання Filecoin мав12.6% використання сховищау Q3 2023 року), це свідчить про те, що постачання продовжує перевищувати попит на ці продукти.

Це лише трохи більше півроку з моменту запуску Akash своєї мережі GPU, і ще занадто рано точно оцінювати довгострокове прийняття. Свідченням попиту є середнє використання GPU на сьогоднішній день - 44% і вище, ніж у ЦП, пам'яті та сховища. Це в основному обумовлено попитом на найвищої якості GPU (наприклад, A100), більше ніж 90%здано в оренду.

Щоденні витрати на Akash також зросли, майже подвоївшись в порівнянні з попередніми GPU. Це може бути частково пов'язано з зростанням використання інших послуг, особливо CPU, але в основному це результат нового використання GPU.

Ціни збігаються (а в деяких випадках навіть дорожче) з його централізованими конкурентами, такими як Lambda Cloud і Vast.ai. Неймовірний попит на графічні процесори найвищого класу (такі як H100 і A100) означає, що більшість власників цього обладнання мало зацікавлені в розміщенні на ринках, де вони стикаються з конкурентоспроможними цінами.

Хоча початковий інтерес обіцяючий, існують перешкоди для прийняття (подробиці обговорюються нижче). Децентралізовані обчислювальні мережі будуть потребувати більше зусиль для залучення як попиту, так і пропозиції, і команди експериментують з тим, як найкраще залучити нових користувачів. Наприклад, в початку 2024 року Akash успішно пройшов Пропозиція 240збільшити викиди AKT для постачальників GPU та стимулювати більше постачання, спеціально спрямовуючись на вищі моделі GPU. Команди також працюють над впровадженням моделей доказу концепції, щоб продемонструвати потенційним користувачам реальні можливості своїх мереж. Акаш - навчанняїхній власний фундаментальний модель і вже запустивчат-бот та генерація зображеньпропозиції, які створюють виходи з використанням графічних процесорів Akash. Так само, io.net має розробленийстабільна модель дифузії і впровадженняНові мережеві функціїякі краще моделюють продуктивність та масштаб традиційних дата-центрів з GPU.

Децентралізоване навчання машинного навчання

На додаток до узагальнених обчислювальних платформ, які можуть обслуговувати потреби ШІ, також з'являється набір спеціалізованих постачальників графічних процесорів зі штучним інтелектом, орієнтованих на навчання моделей машинного навчання. Генсин, наприклад, «координуванняелектрика та обладнання для побудови колективного інтелекту” з точки зору, що „Якщо хтось хоче навчити щось, і хтось готовий цьому навчити, то це навчання повинно мати місце.”

Протокол має чотири основні учасники: подавачі, вирішувачі, перевіряючі та зведувачі. Подавачі подають завдання до мережі із запитами на навчання. Ці завдання включають навчальну мету, модель, яка має бути навчена, та навчальні дані. Як частина процесу подачі, подавачі сплачують попередньо встановлену плату за обчислення, необхідні від вирішувача.

Після подання завдання призначаються розв'язувачі, які проводять фактичне навчання моделей. Розв'язувачі потім подають завершені завдання верифікаторам, які відповідають за перевірку навчання, щоб переконатися, що воно було виконано правильно. Жалгувальники відповідають за те, щоб переконатися, що верифікатори ведуть себе чесно. Щоб заохочувати жалгувальників брати участь в мережі, Gensyn планує періодично надавати свідомо неправильні докази, які винагороджують жалгувальників за їх підманювання.

Окрім забезпечення обчислень для робочих навантажень, пов'язаних зі штучним інтелектом, ключовою ціннісною пропозицією Gensyn є система верифікації, яка все ще перебуває в розробці. Перевірка необхідна, щоб переконатися, що зовнішні обчислення постачальниками графічних процесорів виконуються правильно (тобто щоб переконатися, що модель користувача навчена так, як вони хочуть). Генсин вирішує цю проблему за допомогою унікального підходу, використовуючи нові методи верифікації під назвою «Імовірнісний доказ навчання, протокол на основі графів і заохочувальні ігри в стилі Truebit». Це оптимістичний режим розв'язання, який дозволяє верифікатору підтвердити, що розв'язувач правильно запустив модель, без необхідності повністю повторно запускати її самостійно, що є дорогим і неефективним процесом.

Крім інноваційного методу підтвердження, Gensyn також претензіїбути ефективними з точки зору вартості в порівнянні з централізованими альтернативами та криптоконкурентами - надаючи навчання ML за ціною до 80% дешевше, ніж AWS, перевищуючи подібні проекти, наприклад, Truebit, у тестуванні.

Чи можна реплікувати ці початкові результати в масштабах децентралізованої мережі - поки що невідомо. Gensyn хоче використовувати надлишкові обчислення від постачальників, таких як невеликі центри обробки даних, роздрібні користувачі, і у майбутньому навіть менші мобільні пристрої, такі як мобільні телефони. Однак, як сама команда Gensyn маєдопущено, покладаючись на постачальників гетерогенних обчислень, з'являється кілька нових проблем.

Для централізованих провайдерів, таких як Google Cloud Providers і Coreweave, обчислення коштують дорого, а зв'язок між цими обчисленнями (пропускна здатність і затримка) дешевий. Ці системи розроблені таким чином, щоб забезпечити якомога швидший зв'язок між апаратним забезпеченням. Gensyn перевертає цю структуру з ніг на голову, зменшуючи витрати на обчислення, дозволяючи будь-кому у світі постачати графічні процесори, але збільшуючи витрати на зв'язок, оскільки тепер мережа повинна координувати обчислювальні завдання на гетерогенному обладнанні, розташованому далеко один від одного. Gensyn ще не запущений, але є доказом концепції того, що може бути можливим, коли справа доходить до створення децентралізованих навчальних протоколів машинного навчання.

Децентралізований узагальнений інтелект

декентралізовані платформи обчислень також відкривають можливості для створення штучного інтелекту. Bittensor - це децентралізований протокол обчислень, побудований на Substrate, який намагаюся відповістипитання: «як ми можемо перетворити штучний інтелект на колаборативний підхід?» Bittensor має на меті децентралізувати та комодифікувати генерацію штучного інтелекту. Запущений у 2021 році, протокол хоче використовувати потужність колаборативних моделей машинного навчання для постійної ітерації та вироблення кращого штучного інтелекту.

Bittensor натхненний Bitcoin, з двадцятью один мільйоном поставок своєї власної валюти TAO та чотирирічним циклом півування (перше півування відбудеться у 2025 році). Замість того, щоб використовувати доказ роботи для генерації правильного номера та отримання винагороди за блок, Bittensor покладається на "Доказ інтелекту", вимагаючи від шахтарів запускати моделі, які виробляють відповіді на запити на виведення.

Сприятливість інтелекту

Bittensor спочатку покладався на модель Mixture of Experts (MoE), щоб виробляти виведення. Коли надходять запити на виведення, замість того, щоб покладатися на одну узагальнену модель, моделі MoE передають запит на виведення найточнішим моделям для певного типу вводу. Подумайте про будівництво будинку, де ви наймаєте різних спеціалістів для різних аспектів будівельного процесу (наприклад, архітектори, інженери, художники, будівельники тощо). MoE застосовує це до моделей машинного навчання, намагаючись використовувати виведення різних моделей в залежності від вводу. Як засновник Bittensor Ala Shaabana пояснено, це схоже на «розмову з кімнатою розумних людей і отримання найкращої відповіді, аніж розмовляти з однією людиною». Це черезвикликизабезпечуючи належне маршрутизацію, синхронізацію повідомлень до правильної моделі та стимулювання, цей підхід був відсторонений до того часу, поки проект не розвинеться більше.

У мережі Bittensor є два основні учасники: валідатори та майнери. Валідаторам доручається надсилати запити на виведення до майнерів, переглядати їх виводи та ранжувати їх на основі якості їх відповідей. Щоб забезпечити надійність їх рейтингів, валідаторам надаються бали "vtrust" на основі того, наскільки добре їхні рейтинги відповідають рейтингам інших валідаторів. Чим вище бал "vtrust" валідатора, тим більше TAO емісій вони отримують. Це призначено для стимулювання валідаторів до досягнення консенсусу щодо ранжування моделей з часом, оскільки чим більше валідаторів досягає згоди щодо ранжування, тим вищими є їхні індивідуальні бали "vtrust".

Майнери, також називаються серверами, є учасниками мережі, які запускають реальні моделі машинного навчання. Майнери конкурують між собою, щоб надати валідаторам найточніші виходи для заданого запиту, заробляючи більше викидів TAO, чим точніше їх вихід. Майнери можуть генерувати ці виходи так, як їм заманеться. Наприклад, цілком можливо у майбутньому сценарії, що майнер Bittensor може раніше навчати моделі на Gensyn, які вони використовують для заробітку викидів TAO.

Сьогодні більшість взаємодій відбуваються безпосередньо між валідаторами та майнерами. Валідатори надсилають ввідні дані майнерам та запитують виводи (тобто, навчають модель). Як тільки валідатор запитав майнерів в мережі та отримав їх відповіді, вони ранжирують майнерів та надсилають свої рейтинги в мережу.

Ця взаємодія між валідаторами (які покладаються на PoS) та майнерами (які покладаються на Proof of Model, форму PoW) - називається Умська консенсус. Вона спрямована на стимулювання майнерів для вироблення найкращих вихідних даних для отримання викидів TAO та валідаторів для точного ранжування вихідних даних майнера для отримання вищого балу довіри та збільшення їхніх винагород TAO, утворюючи механізм консенсусу мережі.

Підмережі та Додатки

Взаємодія на Bittensor в основному полягає в тому, що валідатори надсилають запити майнерам та оцінюють їх виводи. Однак по мірі зростання якості внесених майнерів та зростання загального інтелекту мережі, Bittensor створить додатковий рівень додатків на верхньому рівні свого існуючого стеку, щоб розробники могли створювати додатки, які запитують мережу Bittensor.

У жовтні 2023 року Bittensor завершив важливий крок у досягненні цього з вступпідрозділів через його оновлення Revolution. Підрозділи - це окремі мережі на Bittensor, які стимулюють конкретні поведінкові реакції. Революція відкриває мережу для всіх, хто зацікавлений у створенні підрозділу. Протягом місяців з моменту його випуску, понад 32 підмережібули запущені, включаючи ті, що стосуються написання текстів, збору даних, генерації зображень та збереження. При визріванні підмереж і готовності до використання продукту, створювачі підмереж також створять інтеграції додатків, що дозволять командам створювати додатки, які запитують певну підмережу. Деякі додатки (чат-бот, генератор зображень, twitter reply bot, рынок прогнозів) сьогодні існують, але немає жодних формальних стимулів для валідаторів приймати та передавати ці запити, крім грантів від фонду Bittensor.

Для надання більш яскравої ілюстрації, ось приклад того, як Bittensor може працювати, коли додатки будуть інтегровані в мережу.

Підмережі заробляють TAO на основі їх продуктивності, оціненої за допомогою корінна мережаКоренева мережа розташована над усіма підмережами, суттєво виступаючи як особливий вид підмережі, і керується 64 найбільшими підмережевими валідаторами за ставкою. Валідатори кореневої мережі ранжирують підмережі на основі їх продуктивності та періодично розподіляють емісію TAO серед підмереж. Таким чином, окремі підмережі виступають як шахтарі для кореневої мережі.

Bittensor Outlook

Bittensor все ще переживає болі при збільшенні функціональності протоколу для стимулювання генерації інтелектуальних ресурсів в різних підмережах. Майнери продовжують вигадувати нові способи атакування мережі для отримання більше нагород TAO, наприклад, трохимодифікаціявивід високо оціненого висновку, зробленого їх моделлю, та подання кількох варіацій. Пропозиції управління, що впливають на всю мережу, можуть бути подані та реалізовані тільки Тріумвірат, яка складається виключно з учасників Фонду Opentensor (важливо зауважити, що пропозиції потребують затвердження від Bittensor Сенатскладається з валідаторів Bittensor перед реалізацією). Токеноміка проекту перебуває в процесі перегляду для поліпшення стимулів для використання TAO по всіх підмережах. Проект також швидко набуває відомості за своїм унікальним підходом, з CEO одного з найпопулярніших сайтів із штучного інтелекту HuggingFaceвказуючи, що Bittensor повинен додати свої ресурси на веб-сайт.

У нещодавно опублікованому шматокрозроблений основним розробником під назвою «Bittensor Paradigm», команда висловлює свою візію щодо того, щоб Bittensor зрештою еволюціонував до стану «нейтрального до того, що вимірюється». У теорії це може дозволити Bittensor розвивати підмережі, які стимулюють будь-який тип поведінки, всі ці процеси підтримуються TAO. Існують значні практичні обмеження - найважливіше проявлення того, що ці мережі здатні масштабуватися для обробки такого різноманітного набору процесів і те, що вбудовані стимули сприяють прогресу, який перевищує централізовані пропозиції.

Створення децентралізованого стеку обчислень для моделей штучного інтелекту

Вищезазначені розділи надають загальний огляд різних типів розподіленого штучного інтелекту, що розробляються. Хоча ще ранній етап їх розвитку та прийняття, вони надають основу для екосистеми, яка в кінцевому підсумку може сприяти створенню «будівельних блоків ШІ», подібних концепції «Грошових Лего» DeFi. Компонованість бездозвільних блокчейнів відкриває можливість для кожного протоколу будувати на основі іншого, щоб забезпечити більш комплексну децентралізовану екосистему штучного інтелекту.

Наприклад, ось один спосіб, яким Акаш, Генсін та Біттензор можуть взаємодіяти, щоб відповісти на запит на висновок.

Для того, щоб було зрозуміло, це просто приклад того, що можливо у майбутньому, а не відображення поточної екосистеми, існуючих партнерств або ймовірних результатів. Обмеження взаємодії, а також інші розглянуті нижче обставини, значно обмежують можливості інтеграції сьогодні. Крім того, фрагментація ліквідності та необхідність використання кількох токенів може бути шкідливою для користувацького досвіду, що було вказавзасновниками як Akash, так і Bittensor.

Інші децентралізовані пропозиції

На додаток до обчислення, кілька інших децентралізованих інфраструктурних сервісів вже впроваджуються для підтримки зароджуваного штучного інтелекту криптовалюти. Всі їх перерахувати виходить за межі цього звіту, але кілька цікавих та ілюстративних прикладів варто згадати.

  • Океан: Децентралізований ринок даних. Користувачі можуть створювати NFT з даними, що представляють їхні дані, які можна придбати за допомогою токенів даних. Користувачі можуть як монетизувати свої дані, так і мати більший суверенітет над ними, надаючи командам, які працюють над штучним інтелектом, доступ до даних, необхідних для розробки та навчання моделей.
  • Трава: Децентралізований ринок пропускної здатності. Користувачі можуть продавати свою зайву пропускну здатність компаніям зі штучним інтелектом, які використовують її для збору даних з Інтернету. Побудований на Wynd Мережа, це не тільки дозволяє особам монетизувати свою пропускну здатність, але також надає покупцям пропускної здатності більш різноманітний набір точок зору на те, що окремі користувачі бачать в Інтернеті (оскільки доступ до Інтернету окремо налаштовується для їх IP-адреси).
  • HiveMapper: Розробка децентралізованої картографічної пропозиції, що складається з інформації, зібраної від водіїв автомобілів щоденного використання. HiveMapper покладається на штучний інтелект для тлумачення зображень, зібраних з відеореєстраторів користувачів, та винагороджує користувачів токенами за допомогу у вдосконаленні моделі штучного інтелекту через зміцнене навчання людини (RHLF).

Узагальнено, це вказує на майже нескінченні можливості дослідження децентралізованих моделей ринку, які підтримують моделі штучного інтелекту або навколишню інфраструктуру, необхідну для їх розробки. Наразі ці проекти переважно знаходяться на етапі концепції, і для демонстрації їх можливості працювати в масштабах, необхідних для надання комплексних послуг зі штучного інтелекту, потрібно провести набагато більше досліджень та розробок.

Перспектива

Децентралізовані обчислювальні пропозиції все ще знаходяться на початковій стадії розвитку. Вони тільки починають надавати доступ до передових обчислювальних можливостей для тренування найпотужніших моделей штучного інтелекту в виробництві. Щоб здобути значну частку ринку, їм потрібно продемонструвати практичні переваги порівняно з централізованими альтернативами. Потенційні тригери для більшої популярності включають:

  • Постачання/попит на відеокарти. Дефіцит відеокарт, поєднаний з стрімким зростанням обчислювального попиту, призводить до гонки відеокарт. OpenAI вже один разобмежений доступ до своєї платформи через обмеження графічного процесора. Такі платформи, як Akash і Gensyn, можуть забезпечити конкурентоспроможні альтернативи за ціною для команд, які потребують високопродуктивних обчислень. Наступні 6-12 місяців є особливо унікальною можливістю для постачальників децентралізованих обчислень залучити нових користувачів, які змушені розглядати децентралізовані пропозиції з огляду на відсутність доступу на широкому ринку. У поєднанні з дедалі продуктивнішими моделями з відкритим вихідним кодом, такими як LLaMA 2 від Meta, користувачі більше не стикаються з тими самими бар'єрами для розгортання ефективних точно налаштованих моделей, що робить обчислювальні ресурси основним вузьким місцем. Однак існування самих платформ не забезпечує адекватної пропозиції обчислень і відповідного попиту з боку споживачів. Пошук високоякісних графічних процесорів залишається складним завданням, а вартість не завжди є основною мотивацією з боку попиту. Перед цими платформами стоятиме завдання продемонструвати практичну вигоду від використання децентралізованого варіанту обчислень – чи то через вартість, стійкість до цензури, час безвідмовної роботи та відмовостійкість, чи доступність – для накопичення постійних користувачів. Рухатися їм доведеться швидко. Інфраструктура графічного процесора інвестиції та розбудовавідбувається з надзвичайною швидкістю.
  • Постанова. Регулювання продовжує залишатися зустрічним вітром для руху децентралізованих обчислень. У найближчій перспективі відсутність чіткого регулювання означає, що як провайдери, так і користувачі стикаються з потенційними ризиками використання цих послуг. Що робити, якщо постачальник надає обчислення або покупець купує обчислення у суб'єкта, який потрапив під санкції, несвідомо? Користувачі можуть вагатися, чи використовувати децентралізовану платформу, яка не має контролю та нагляду централізованої організації. Протоколи намагалися пом'якшити ці занепокоєння, включивши засоби контролю на свої платформи або додавши фільтри для доступу лише до відомих постачальників обчислень (тобто надали інформацію про свого клієнта (KYC), але для прийняття знадобляться більш надійні методи, які захищають конфіденційність, гарантуючи, що відповідність вимогам буде потрібна. У короткостроковій перспективі ми, ймовірно, побачимо появу KYC та платформ, сумісних з нормативними вимогами, які обмежують доступ до своїх протоколів для вирішення цих проблем. Крім того, дискусії навколо можливих нових нормативно-правових рамок США, найкраще проілюстровані випуском Указ Президента про безпечний, надійний та довірчий розвиток та використання штучного інтелекту, підкреслює потенціал для регуляторних заходів, які додатково обмежують доступ до GPU.
  • Цензура. Регулювання працює у дві сторони, і децентралізовані обчислювальні пропозиції можуть скористатися заходами, спрямованими на обмеження доступу до штучного інтелекту. Крім Виконавчого указу, засновник OpenAI Сем Ольтманпідтвердивв Конгресі щодо потреби у регулюючих органах, які видають ліцензії на розвиток штучного інтелекту. Обговорення щодо регулювання штучного інтелекту тільки починається, але будь-які спроби обмежити доступ або цензурувати те, що можна робити з штучним інтелектом, можуть прискорити прийняття децентралізованих платформ, які не мають таких бар'єрів. Керівництво OpenAI зазнало змін у листопаді(або його відсутності) подальше свідчить про ризики делегування прийняття рішень для найпотужнішої існуючої моделі ШІ лише кільком. Крім того, всі моделі ШІ обов'язково відображають упередження тих, хто їх створив, навмисно чи ні. Один зі способів усунення цих упереджень - зробити моделі якомога більш відкритими для налаштування та навчання, забезпечуючи можливість доступу до моделей всіх видів та упереджень будь-кому, де б він не знаходився.
  • Конфіденційність даних. Коли інтегрується зовнішніми даними та рішеннями з приводу конфіденційності, які надають користувачам автономію над їхніми даними, децентралізоване обчислення може стати більш привабливим, ніж централізовані альтернативи. Samsung стал жертвоюколи вони зрозуміли, що інженери використовували ChatGPT для допомоги в проектуванні мікросхем та розголошували чутливу інформацію ChatGPT. Phala Network та iExec стверджують, що пропонують користувачам захищені області SGX для захисту даних користувачів та невпинний дослід у повністю гомоморфному шифруванні може додатково розблокувати конфіденційність забезпеченого децентралізованого обчислення. Оскільки штучний інтелект стає все більше інтегрованим у наше життя, користувачі будуть надавати більше уваги можливості запускати моделі на додатках, в яких вони вбудовані в приватність. Користувачі також будуть вимагати послуг, які дозволять комбінувати дані, щоб вони могли безперешкодно переносити свої дані з однієї моделі в іншу.
  • Взаємодія користувача (UX). UX продовжує бути значним бар'єром для більш широкого прийняття всіх видів криптоприкладів та інфраструктури. Це не відрізняється для децентралізованих обчислювальних пропозицій, і в деяких випадках погіршується необхідністю для розробників розуміти як криптоприклад, так і штучний інтелект. Покращення потрібні від основ, таких як включення та відсутність взаємодії з блокчейном до надання того ж самого високоякісний вивідяк лідери сучасного ринку. Це очевидно в тому, що багато операційних децентралізованих обчислювальних протоколів, що надають дешеві пропозиції, мають проблеми з отриманням регулярного використання.

Розумні контракти та zkML

Розумні контракти є основним будівельним блоком будь-якої екосистеми блокчейну. З врахуванням конкретного набору умов вони автоматично виконуються та зменшують або усувають потребу в довіреній третій стороні, що дозволяє створювати складні децентралізовані додатки, такі як ті, які бачимо в DeFi. Однак на сьогоднішній день розумні контракти, в основному, обмежені в своїй функціональності тим, що вони виконуються на основі заданих параметрів, які потрібно оновлювати.

Наприклад, у розпорядженні зазначаються умови для ліквідації позиції на основі певних відношень між позикою та вартістю. Хоча це корисно в статичному середовищі, в динамічній ситуації, де ризик постійно змінюється, ці смарт-контракти повинні постійно оновлюватися, щоб врахувати зміни в ризикотерпимості, створюючи виклики для контрактів, які не керуються централізованими процесами. Наприклад, DAO, які покладаються на децентралізовані процеси управління, можуть не мати можливості реагувати достатньо швидко на системні ризики.

Смарт-контракти, які інтегрують штучний інтелект (тобто моделі машинного навчання), є одним із можливих способів підвищити функціональність, безпеку та ефективність, одночасно покращуючи загальний користувацький досвід. Однак ці інтеграції також створюють додаткові ризики, оскільки неможливо гарантувати, що моделі, що лежать в основі цих смарт-контрактів, не можуть бути використані або врахувати ситуації з довгим хвостом (на яких, як відомо, важко навчати моделі, враховуючи дефіцит вхідних даних для них).

Машинне навчання з нульовими знаннями (zkML)

Машинне навчання вимагає великих обсягів обчислень для виконання складних моделей, що перешкоджає прямому виконанню моделей ШІ всередині розумних контрактів через високі витрати. Протокол DeFi, який надає користувачам доступ до моделі оптимізації доходів, наприклад, міг би мати проблеми з виконанням цієї моделі on-chain без необхідності сплати надзвичайно високих газових витрат. Одним з рішень є збільшення обчислювальної потужності основного блокчейну. Однак це також збільшує вимоги до набору перевіряючих ланцюга, що потенційно підриває властивості децентралізації. Замість цього деякі проекти досліджують використання zkML для перевірки вихідних даних в безпечний спосіб без потреби інтенсивних обчислень on-chain.

Один зазвичайподілився прикладом, який ілюструє корисність zkML, коли користувачу потрібно, щоб хтось інший обробив дані через модель, а також перевірив, що їхній контрагент дійсно запустив правильну модель. Можливо, розробник використовує децентралізованого постачальника обчислень для навчання своїх моделей і переймається тим, що постачальник намагається зекономити, використовуючи дешеву модель з майже непомітною різницею в виведенні. zkML дозволяє постачальнику обчислень обробляти дані через їхні моделі, а потім генерувати доказ, який можна перевірити на ланцюгу, щоб довести, що виведення моделі для заданого вводу є правильним. У цьому випадку постачальник моделей матиме додаткову перевагу в тому, що зможе пропонувати свої моделі, не розголошуючи базові ваги, що породжують виведення.

Можна було б зробити і навпаки. Якщо користувач хоче запустити модель, використовуючи свої дані, але не хоче, щоб проект, що надає модель, мав доступ до його даних з міркувань конфіденційності (наприклад, у випадку медичного огляду або конфіденційної ділової інформації), тоді користувач може запустити модель зі своїми даними, не надаючи їх, а потім перевірити, чи він запустив правильну модель за допомогою доказу. Ці можливості значно розширюють простір для інтеграції штучного інтелекту та функціональності смарт-контрактів, усуваючи непомірні обчислювальні обмеження.

Інфраструктура та інструменти

У зв'язку з раннім станом простору zkML розробка переважно спрямована на побудову інфраструктури та інструментів, необхідних для команд для перетворення їх моделей та виводів у докази, які можуть бути перевірені на ланцюжку. Ці продукти абстрагуються від аспекту нульового знання розробки наскільки це можливо.

EZKL та Gizaє два проекти, які будують це засобом надання підтверджених доказів виконання моделі машинного навчання. Обидва допомагають командам будувати моделі машинного навчання, щоб забезпечити можливість виконання цих моделей таким чином, щоб результати можна було перевірити на ланцюжку без довіри. Обидва проекти використовують відкритий обмін нейронними мережами (ONNX) для перетворення моделей машинного навчання, написаних мовами загального вжитку, такими як TensorFlow та Pytorch, у стандартний формат. Потім вони виводять версії цих моделей, які також видають zk-докази при виконанні. EZKL є відкритим джерелом і видає zk-SNARKS, тоді як Giza є закритим джерелом і видає zk-STARKS. Обидва проекти наразі підтримують тільки EVM.

EZKL продемонстрував значний прогрес протягом останніх кількох місяців у вдосконаленні свого рішення zkML, головним чином спрямованого на зниження витрат, покращення безпеки, та прискорення генерації доказів. Наприклад, у листопаді 2023 року EZKL інтегрував нову відкриту бібліотеку GPU, яка зменшує час агрегованого доказу на 35%, а в січні EZKL оголошеноЛіліт, програмне рішення для інтеграції високопродуктивних обчислювальних кластерів та оркестрування одночасних завдань при використанні системи доведення EZKL. Гіза унікальна тим, що, крім забезпечення засобів для створення перевірних моделей машинного навчання, вони також планують впровадити веб3 еквівалентHugging Face, відкриваючи ринок користувачів для співпраці та спільного використання моделей zkML, а також поступово інтегруючи децентралізовані обчислювальні пропозиції. У січні EZKL випустив оцінка показниківпорівняння продуктивності EZKL, Giza та RiscZero (пор discussed below). EZKL продемонстрував швидші часи доведення та використання пам'яті.


Modulus Labs також розробляє нову техніку доказу zk, спеціально підготовлену для моделей штучного інтелекту. Modulus опублікував статтю під назвою Вартість інтелекту (натякаючи на неймовірно високі витрати на запуск моделей штучного інтелекту в ланцюжку), які проводили порівняльний аналіз існуючих на той час систем захисту від zk, щоб визначити можливості та вузькі місця для покращення zk-proof-моделей AI. Опублікований у січні 2023 року документ демонструє, що існуючі пропозиції просто занадто дорогі та неефективні, щоб забезпечити масштабні програми штучного інтелекту. Ґрунтуючись на своїх початкових дослідженнях, у листопаді Modulus @ModulusLabs/introducing-modulus-bring-ai-on-chain-d75dcb82c5e3">представлено Remainder, спеціалізований постачальник із нульовим розголошенням, створений спеціально для скорочення витрат і часу перевірки для моделей штучного інтелекту з метою зробити економічно доцільним для проєктів масштабну інтеграцію моделей у свої смарт-контракти. Їхня робота є закритим вихідним кодом і тому не може бути порівнянна з вищезазначеними рішеннями, але нещодавно на неї посилалися в статті Віталіка Публікація в блозіпро крипто та штучний інтелект.

Розробка інструментів та інфраструктури є критичними для майбутнього розвитку простору zkML, оскільки значно зменшує тертіння для команд, які потребують розгортання zk схем, необхідних для запуску перевірки обчислень офлайн. Створення безпечних інтерфейсів, які дозволяють некриптознавцям, що працюють в області машинного навчання, привести свої моделі на ланцюжок, дозволить більшій експериментації застосунків з дійсно новими випадками використання. Інструменти також вирішують головний перешкоду для більшої прийнятості zkML - відсутність розробників, які мають знання і зацікавлені працювати на перетині нуль-знань, машинного навчання та криптографії.

Копроцесори

Додаткові рішення в розробці, які називають «копроцесорами», включаютьRiscZero,Аксіома, та ОбрядТермін копроцесора в основному семантичний - ці мережі виконують багато різних ролей, включаючи підтвердження обчислень поза ланцюжком на ланцюжку. Як і з EZKL, Giza та Modulus, вони мають на меті повністю абстрагувати процес генерації доказів знання нуля, створюючи фактично віртуальні машини нуль-знань, здатні виконувати програми поза ланцюжком та генерувати докази для верифікації на ланцюжку. RiscZero та Axiom можуть сервіспрості моделі штучного інтелекту, оскільки вони призначені для того, щоб бути більш загальними копроцесорами, тоді як Ritual спеціально створений для використання з моделями штучного інтелекту.

Infernetє першою екземпляром Ritual і включає в себе Infernet SDK, який дозволяє розробникам подавати запити на висновок в мережу і отримувати вихідні дані та докази (необов'язково) у відповідь. Вузол Infernet отримує ці запити та обробляє обчислення поза мережею, перш ніж повернути вихідні дані. Наприклад, DAO може створити процес для забезпечення того, щоб усі нові пропозиції щодо управління відповідали певним передумовам перед подачею. Щоразу, коли подається нова пропозиція, контракт на управління ініціює запит на висновок через Infernet, викликаючи модель штучного інтелекту, навчену DAO. Модель розглядає пропозицію, щоб переконатися, що всі необхідні критерії були подані, і повертає вихідні дані та докази, схвалюючи або відхиляючи подання пропозиції.

Протягом наступного року команда Ritual планує впровадити додаткові функції, які утворюють базовий інфраструктурний шар, який називається Ritual Superchain. Багато з раніше обговорених проектів можуть підключатися до Ritual як постачальники послуг. Вже команда Ritual інтегрувалася з EZKL для генерації доказів і, ймовірно, незабаром додаси функціонал від інших провідних постачальників. Вузли Infernet на Ritual також можуть використовувати графічні процесори Akash або io.net та запитувати моделі, навчені на підмережах Bittensor. Їхня кінцева мета - стати провідним постачальником відкритої AI-інфраструктури, здатної обслуговувати завдання машинного навчання та інші завдання, пов'язані з штучним інтелектом, з будь-якої мережі для будь-якого завантаження.

Додатки

zkML допомагаєузгодитисуперечність між блокчейнами та штучним інтелектом, де перші мають вбудовані обмеження ресурсів, а останні потребують великої кількості обчислень та даних. Як один із засновників Gizaпокласти, «Використання настільки різноманітне ... це трохи нагадує запитання в ранні дні Ethereum, які є використанням смарт-контрактів ... те, що ми робимо, це просто розширення використання смарт-контрактів». Однак, як видно з вищезазначеного, розвиток сьогодні відбувається переважно на рівні інструментів та інфраструктури. Додатки все ще перебувають на стадії досліджень, командам випадає завдання довести, що значення, що створюється в результаті впровадження моделей з використанням zkML, перевищує складність і витрати на його виконання.

Деякі застосунки сьогодні включають:

  • Децентралізована фінансова справа. zkML покращує дизайн простору для DeFi, підвищуючи можливості смарт-контрактів. Протоколи DeFi надають моделям машинного навчання великі обсяги перевірених та незмінних даних, які можуть бути використані для генерації стратегій генерації доходів чи торгівлі, аналізу ризиків, UX та багато іншого. Наприклад, Giza має партнерствоспівпрацює з Yearn Finance для створення концепції автоматизованого двигуна оцінки ризику для нових сховищ v3 року Yearn. Компанія Modulus Labs @ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36">worked with Lyra Finance on incorporating machine learning into their AMMs, is співпрацюєз використанням Ion Protocol для впровадження моделі для аналізу ризику валідатора, і допомагаєРезультатперевірте їхні AI-приводомі цінові канали NFT. Протоколи, такі як NOYA(який використовує EZKL) таМозаїканадають доступ до власних позаланцюжкових моделей, які надають користувачам можливість автоматизованого збирання доходів, дозволяючи їм перевіряти вхідні дані та докази на ланцюжку.Спектральне фінансуваннябудує онлайнові кредитні скорингові двигуни для передбачення ймовірності того, що позичальники Compound або Aave не сплатять свої позики. Ці так звані продукти "De-Ai-Fi" ймовірно стануть набагато поширенішими в майбутні роки завдяки zkML.
  • Ігри. Ігрова сфера давно вважалася готовою до розриву і вдосконалення за допомогою публічних блокчейнів (щодо криптовалюти та геймінгу див. звіт Galaxy Digital - Історія геймінгу та його майбутнє Web3). zkML робить можливим геймінг на ланцюжку з штучним інтелектом. Модульні Лабораторіївже реалізувала концепції для простих онлайн-ігор на ланцюжку.Leela проти світу - це гра теоретичної шахової гри, в якій користувачі зіткнуться з моделлю шахів штучного інтелекту, з zkML, що підтверджує, що кожен хід Леели заснований на моделі, яку гра вказує, що вона працює. Так само, команди використовували фреймворки EZKL для створення простих співочі конкурси та онлайн-хрестики-нулики. Картридж використовує Giza, щоб дозволити командам розгортати повністю онлайн-ігри, останнім часом виділенняпроста гра з штучним інтелектом, де користувачі змагаються, щоб створити кращі моделі для автомобіля, який намагається уникнути перешкод. Хоча просто, ці концепції вказують на майбутні реалізації, які дозволять більш складні верифікації на ланцюжку, такі як вдосконалені NPC-актори, здатні взаємодіяти з економіками в грі, як це бачимо в@ModulusLabs/chapter-5-the-cost-of-intelligence-da26dbf93307">AI Arena, гра супер-братів, схожа на гру Super Smash Brothers, де гравці тренують своїх бійців, які потім використовуються як моделі штучного інтелекту для бою.
  • Ідентичність, походження та конфіденційність. Крипто вже застосовується використовуєтьсяяк засіб перевірки автентичності та боротьби з зростаючою кількістю створеного/зміненого штучного інтелекту вмісту та глибоких фейків. zkML може сприяти цим зусиллям. WorldCoin - це рішення доведення особистості, яке вимагає від користувачів сканувати їхні іриси для створення унікального ідентифікатора. У майбутньому біометричні ідентифікатори можуть бутисамокерованийна особистих пристроях за допомогою зашифрованого сховища з потрібними моделями для перевірки цих біометричних даних, які працюють локально. Користувачі можуть надати докази своїх біометричних даних, не розкриваючи, хто вони є, борючись з сібіл-атаками, забезпечуючи при цьому конфіденційність. Це також може бути застосовано до інших висновків, що потребують конфіденційності, таких як використання моделейдля аналізу медичних даних / зображень для виявлення захворювань, перевірки особистості та розробки відповідних алгоритмів у додатках для знайомств або для страхових та кредитних агентств, які потребують підтвердження фінансової інформації.

Перспектива

zkML все ще знаходиться на експериментальному етапі, більшість проєктів спрямовані на розбудову інфраструктури та доведення концепцій до життя. Сьогоднішні виклики включають обчислювальні витрати, обмеження пам'яті, складність моделі, обмежений набір інструментів і інфраструктури, а також талант розробника. Просто кажучи, потрібно виконати значно більше роботи, перш ніж zkML може бути впроваджений у такому масштабі, який потрібен для споживчих товарів.

По мірі того, як галузь дозріває, і ці обмеження вирішуються, zkML стане критичним компонентом інтеграції штучного інтелекту та криптографії. В основі zkML обіцяє можливість перенесення обчислень будь-якого розміру з off-chain на on-chain, зберігаючи ті ж самі або близькі до тих же гарантії безпеки, якщо б обчислення було виконано on-chain. Доки це бачення не здійсниться, ранні користувачі технології продовжуватимуть збалансовувати компроміси між конфіденційністю та безпекою zkML та ефективністю альтернатив.

AI Агенти

Одним із більш захоплюючих інтеграцій штучного інтелекту та криптовалюти є постійні експерименти з AI Agents. Агенти - це автономні боти, здатні отримувати, інтерпретувати та виконувати завдання за допомогою моделі штучного інтелекту. Це може бути все, від завжди доступного особистого помічника, який налаштований під ваші уподобання, до найму фінансового агента, який управляє та коригує ваш портфель відповідно до ваших уподобань у ризику.

Агенти та крипто добре поєднуються разом через інфраструктуру платежів без дозволів та довіри, яку надає крипто. Після навчання агентам може бути видано гаманець, щоб вони могли проводити угоди зі смарт-контрактами самостійно. Прості агенти сьогодні, наприклад, можуть сканувати Інтернет для отримання інформації, а потім робити угоди на ринках передбачень на основі моделі.

Постачальники агентів

Морфеус- це один з найновіших проектів агентів з відкритим кодом, які з'являться на ринку Ethereum та Arbitrum у 2024 році. Його біла книга була анонімно опублікована у вересні 2023 року, надаючи фундамент для формування спільноти та побудови навколо (включаючи відомих фігур, таких як Ерік Воргіс. Біла книга містить завантажуваний Протокол розумного агента, який є відкритим додатком LLM, який може бути запущений локально, керується гаманцем користувача та взаємодіє з розумними контрактами. Він використовує Рейтинг смарт-контрактівщоб допомогти агенту визначити, які смарт-контракти безпечно взаємодіяти на підставі критеріїв, таких як кількість оброблених транзакцій.

У білій книзі також надається рамка для розбудови мережі Morpheus, така як інцентивні структури та інфраструктура, необхідна для зроблення операційного протоколу Smart Agent. Це включає стимулювання учасників для створення фронтендів для взаємодії з агентами, API для розробників для створення додатків, які можуть підключатися до агентів, щоб вони могли взаємодіяти один з одним, та хмарні рішення для надання користувачам можливості отримати доступ до обчислень та сховища, необхідних для запуску агента на пристрої на краю. Початкове фінансування проекту стартувало в початковому лютому, і повний протокол очікується запустити в 2-му кварталі 2024 року.

Децентралізована автономна інфраструктурна мережа (DAIN) - це новий протокол інфраструктури агента, який будує економіку агента-до-агента на Solana. DAIN має на меті зробити так, щоб агенти з різних бізнесів могли безперешкодно взаємодіяти один з одним за допомогою універсального API, значно відкриваючи простір для дизайну для штучних інтелектуальних агентів з фокусом на реалізацію агентів, які можуть взаємодіяти як з продуктами web2, так і з продуктами web3. У січні DAIN оголосив про свій перший партнерство з Asset Shield, що дозволяє користувачам додавати до свого мультипідпису «агентів, які підписують», які здатні інтерпретувати транзакції та схвалювати/відхиляти на основі правил, встановлених користувачем.

Fetch.AIбув одним з перших протоколів штучного інтелекту, що був розгорнутий і розробив екосистему для побудови, розгортання та використання Агентів on-chain з використанням свого токену FET і Fetch.AIгаманець. Протокол надає широкий набір інструментів та додатків для використання Агентів, включаючи функціональність в гаманці для взаємодії з агентами та їх замовлення.

Autonolas, чиї засновники включають попереднього члена команди Fetch, є відкритим ринком для створення та використання децентралізованих штучних інтелектуальних агентів. Autonolas також надає набір інструментів для розробників для створення штучних інтелектуальних агентів, які розміщені офлайн та можуть підключатися до кількох блокчейнів, включаючи Polygon, Ethereum, Gnosis Chain та Solana. У них наразі є кілька активних доказів концепції агентівпродуктивключаючи використання в ринках передбачень та управлінні DAO.

SingularityNetбудує розподілене ринку для AI агентів, де люди можуть розгортати AI агентів з вузькою спрямованістю, які можуть бути орендовані іншими людьми або агентами для виконання складних завдань. Інші, як ЗміненийStateМашина, будують інтеграції AI Agent з NFT. Користувачі створюють NFT з випадковими характеристиками, які надають їм сильні і слабкі сторони для різних завдань. Цих агентів можна навчати для підвищення певних характеристик для використання в гральних іграх, DeFi або як віртуальний помічник та обмінювати їх з іншими користувачами.

Загалом ці проекти уявляють майбутню екосистему агентів, здатних працювати разом не лише для виконання завдань, а й для допомоги у створенні штучного загального інтелекту. Справжньо винахідливі агенти матимуть здатність автономно виконувати будь-яке завдання користувача. Наприклад, замість того, щоб переконатися, чи вже агент інтегрувався з зовнішнім API (наприклад, веб-сайтом для бронювання подорожей), перед використанням його, повністю автономні агенти матимуть здатність зрозуміти, як найняти іншого агента для інтеграції API, а потім виконати завдання. З точки зору користувача не буде потреби перевіряти, чи агент може виконати завдання, оскільки агенти зможуть визначити це самостійно.

Bitcoin та штучні інтелектуальні агенти

У липні 2023 року, Lightning Labsзапустив доказову реалізацію використання агентів в мережі Lightning під назвою LangChain Bitcoin Suite. Продукт особливо цікавий, оскільки він спрямований на вирішення зростаючої проблеми у світі веб-2 – заборонений та дорогийКлючі API для веб-застосунків.

LangChain вирішує це, надаючи розробникам набір інструментів, що дозволяють агентам купувати, продавати та утримувати Bitcoin, а також запитувати ключі API та надсилати мікроплатежі. У традиційних платіжних системах невеликі мікроплатежі вважаються накладними через комісії, але на мережі Lightning агенти можуть надсилати необмежену кількість мікроплатежів щоденно з мінімальними комісіями. У поєднанні з рамками API-інтерфейсу для вимірювання платежів L402 компанії зможуть налаштовувати вартість доступу до своєї API в залежності від збільшення та зменшення використання, замість встановлення єдиної накладної стандартної вартості.

У майбутньому, коли ланцюгова активність переважно зумовлена агентами, які взаємодіють між собою, щось подібне буде необхідним, щоб забезпечити можливість взаємодії агентів один з одним способом, який не є витратним. Це є першим прикладом того, як використання агентів на бездозвільних та витратно-ефективних платіжних мережах відкриває можливості для нових ринків та економічних взаємодій.

Перспектива

Простір Агентів все ще є початковим. Проекти тільки починають впроваджувати функціональних агентів, які можуть обробляти прості завдання з використанням їхньої інфраструктури - яка часто доступна лише досвідченим розробникам та користувачам. Проте з часом одним із найбільших впливів штучного інтелекту на криптовалюту буде покращення UX в усіх вертикалях. Операції почнуть переходити від кліків до текстових команд, користувачі зможуть взаємодіяти з агентами на ланцюжку через LLMs. Вже команди, подібні до Гаманець Dawnвводять чат-боти гаманці для користувачів для взаємодії на ланцюжку.

Крім того, невідомо, як можуть працювати агенти в Інтернеті 2, де фінансові засоби залежать від регульованих банківських установ, які не працюють цілодобово і не можуть здійснювати безперервні міжнародні транзакції. Як Lyn Alden Він підкреслив, що крипторейки особливо привабливі порівняно з кредитними картками через відсутність чарджбеків і можливості обробляти мікротранзакції. Однак, якщо агенти стануть більш поширеним засобом транзакцій, цілком ймовірно, що існуючі платіжні провайдери та додатки швидко впроваджують інфраструктуру, необхідну для роботи на існуючих фінансових рейках, пом'якшуючи деякі переваги використання криптовалюти.

Наразі агенти ймовірно будуть обмежені детерміністичними криптовалютними транзакціями, де певний вихід гарантується для певного входу. Обидва моделі, які визначають здатність цих агентів вирішувати, як виконувати складні завдання, та засоби, які розширюють обсяг того, що вони можуть досягти, вимагають подальшого розвитку. Для того щоб криптовалютні агенти стали корисними поза новаторськими використаннями криптовалют на ланцюжку, потрібна ширша інтеграція та прийняття криптовалюти як форми платежу, а також регулятивна ясність. Однак, коли ці компоненти розвиватимуться, агенти готові стати одними з найбільших споживачів децентралізованого обчислення та обговорених вище рішень zkML, діючи в автономному недетермінованому способі для отримання та вирішення будь-якого завдання.

Висновок

Штучний інтелект вводить у криптографію ті ж інновації, які ми вже бачимо в інтернеті 2.0, покращуючи все від розвитку інфраструктури до користувацького досвіду та доступності. Однак проекти все ще знаходяться на ранніх етапах свого розвитку, і найближча інтеграція криптографії та штучного інтелекту буде в основному підкорена офлайн інтеграціям.

Продукти, подібні доСпілотбуде“10x”ефективність розробника, з layer 1sіДеФізастосунки вже створюються на платформах розробки з підтримкою штучного інтелекту в співпраці з великими корпораціями, такими як Microsoft. Компанії, подібніCub3.ai та Тестовий пристрійрозробляють інтеграції штучного інтелекту для аудиту смарт-контрактів та моніторингу загроз у реальному часі для підвищення безпеки на ланцюжку. І чат-боти LLM навчаються за допомогою даних з ланцюжка, документів протоколу та додатків, щоб надавати користувачам покращену доступність та UX.

Для більш продуманих інтеграцій, які дійсно використовують основні технології криптовалюти, виклик залишається в демонстрації того, що впровадження рішень штучного інтелекту на ланцюжку є технічно можливим і економічно доцільним на великому масштабі. Розвиток децентралізованих обчислень, zkML та AI Agents вказує на перспективні вертикалі, які закладають фундамент для майбутнього, де криптовалюта та штучний інтелект глибоко переплетені.

Disclaimer:

  1. Ця стаття взята з [галактика]. Усі авторські права належать оригінальному автору [Лукас Тчейан]. Якщо є зауваження до цього повторного видання, будь ласка, зверніться до Ворота Навчаннякоманда, і вони оперативно займуться цим.
  2. Відповідальність за відмову: Погляди та думки, висловлені в цій статті, є виключно тими автора і не становлять жодних інвестиційних порад.
  3. Переклади статті на інші мови виконуються командою Gate Learn. Якщо не зазначено інше, копіювання, поширення або плагіатування перекладених статей заборонено.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!