Galaxy Digital: Исследование пересечения Криптовалюты и ИИ

Средний2/28/2024, 4:55:32 AM
Эта статья исследует пересечение криптовалюты и искусственного интеллекта, выделяя появление публичных блокчейнов как одного из наиболее глубоких достижений в истории компьютерных наук. Она обсуждает, как развитие ИИ уже оказывает значительное влияние на наш мир.

Введение

Появление публичных блокчейнов является глубоким прорывом в истории компьютерных наук, в то время как развитие искусственного интеллекта имеет значительное влияние на наш мир. Технология блокчейн предлагает новые шаблоны для расчета транзакций, хранения данных и проектирования систем, в то время как искусственный интеллект представляет собой революцию в вычислениях, анализе и доставке контента. Инновации в этих отраслях развязывают новые сценарии использования, которые могут ускорить принятие обеих сфер в ближайшие годы. В данном отчете рассматривается непрерывная интеграция криптовалюты и искусственного интеллекта, с акцентом на новые сценарии использования, направленные на сокрытие разрыва между ними и использование их преимуществ. В частности, рассматриваются проекты, разрабатывающие децентрализованные протоколы вычислений, инфраструктуру машинного обучения с нулевым разглашением (zkML) и искусственный интеллект.

Криптовалюта предлагает разрешение, доверительность и компонентный уровень расчетов для ИИ, открывая такие сценарии использования, как более простой доступ к аппаратному обеспечению через децентрализованные вычислительные системы, создание ИИ-агентов, способных выполнять сложные задачи, требующие обмена ценностями, и разработка решений для идентификации и происхождения, чтобы противостоять атакам Сибилл и глубоким подделкам. ИИ приносит в криптовалюту многие из тех же преимуществ, которые видны в Вебе 2.0, включая улучшенные пользовательские и разработческие возможности благодаря большим языковым моделям, таким как ChatGPT и Copilot, а также значительно улучшенные функциональные возможности и потенциал автоматизации для смарт-контрактов. Блокчейн обеспечивает прозрачную, богатую данными среду, необходимую для ИИ, хотя ограниченная вычислительная мощность блокчейна является основным барьером для прямой интеграции моделей ИИ.

Эксперименты и последующее принятие в области пересечения криптовалюты и искусственного интеллекта обусловлены теми же силами, которые стимулируют наиболее многообещающие случаи использования криптовалюты: доступ к слою координации без разрешения и доверия, облегчающему лучший перевод стоимости. Учитывая огромный потенциал, заинтересованным сторонам в этой области необходимо понимать основные способы взаимодействия этих технологий.

Ключевые моменты:

    • В ближайшем будущем (от 6 месяцев до 1 года) интеграция криптовалюты и искусственного интеллекта будет доминировать приложениями искусственного интеллекта, которые повышают эффективность разработчиков, аудитабельность и безопасность смарт-контрактов, а также доступность для пользователей. Эти интеграции не являются специфичными для криптовалюты, но улучшают опыт для разработчиков и пользователей on-chain.
    • Поскольку высокопроизводительные графические процессоры остаются дефицитными, децентрализованные вычислительные продукты внедряют специализированные продукты с ИИ для увеличения принятия.
    • Пользовательский опыт и регулирующие препятствия остаются преградами на пути привлечения клиентов для децентрализованных вычислений. Однако недавние события в OpenAI и текущие регуляторные расследования в США подчеркивают ценностное предложение разрешенных без разрешения, устойчивых к цензуре и децентрализованных сетей искусственного интеллекта.
    • Интеграция искусственного интеллекта на цепи, особенно смарт-контракты, способные использовать модели искусственного интеллекта, требует улучшения технологии zkML и других методов для верификации вычислений вне цепи. Недостаток комплексных инструментов, талантов разработчиков и высокие затраты являются препятствиями для принятия.
    • Агенты ИИ хорошо подходят для криптовалют, где пользователи (или сами агенты) могут создавать кошельки для транзакций с другими сервисами, агентами или частными лицами — возможность, невозможная с традиционными финансовыми рельсами. Для более широкого внедрения необходима дополнительная интеграция с некриптографическими продуктами.

Условия

Искусственный интеллект - это использование вычислений и машин для имитации рассуждений и способностей человека в решении проблем.

Нейронные сети - это метод обучения моделей искусственного интеллекта. Они пропускают входные данные через дискретные алгоритмические слои, улучшая их до получения желаемого результата. Нейронные сети состоят из уравнений с весами, которые можно настраивать для изменения выходных данных. Для обучения может потребоваться обширная база данных и вычислительные мощности, чтобы гарантировать точность выходных данных. Это один из наиболее распространенных способов разработки моделей искусственного интеллекта (например, ChatGPT основан на процессе нейронной сети на основе трансформеров).

Обучение - это процесс разработки нейронных сетей и других моделей искусственного интеллекта. Для правильной интерпретации входных данных и получения точных результатов требуется значительное количество данных для обучения моделей. Во время обучения веса уравнения модели непрерывно модифицируются до получения удовлетворительных результатов. Обучение может быть очень затратным. Например, ChatGPT использует десятки тысяч собственных графических процессоров для обработки данных. Команды с ограниченными ресурсами часто полагаются на специализированных поставщиков вычислительных ресурсов, таких как Amazon Web Services, Azure и поставщики облачных вычислений Google.

Вывод - это фактическое использование моделей искусственного интеллекта для получения выводов или результатов (например, использование ChatGPT для создания контура статьи о пересечении криптовалюты и искусственного интеллекта). Вывод используется на протяжении всего процесса обучения и в конечном продукте. Из-за вычислительных затрат, даже после завершения обучения, их операционные издержки могут быть высокими, хотя их вычислительная интенсивность ниже, чем у обучения.

Доказательства с нулевым разглашением (ZKP) позволяют проверять утверждения без раскрытия лежащей в их основе информации. Это полезно в криптовалюте по двум основным причинам: 1) Конфиденциальность и 2) Масштабирование. Для обеспечения конфиденциальности он позволяет пользователям совершать транзакции, не раскрывая конфиденциальную информацию (например, сколько ETH находится в кошельке). Что касается масштабирования, это позволяет быстрее подтверждать вычисления вне сети, чем повторное выполнение вычислений. Это позволяет блокчейнам и приложениям дешево выполнять вычисления вне блокчейна, а затем проверять их в блокчейне. Для получения дополнительной информации о нулевом разглашении и его роли в виртуальных машинах Ethereum см. отчет Кристин Ким (Christine Kim) о zkEVM: будущее масштабируемости Ethereum.

Карта рынка искусственного интеллекта/криптовалюты

Проекты, интегрирующие искусственный интеллект и криптовалюту, все еще создают основную инфраструктуру, необходимую для поддержки масштабных он-чейн взаимодействий с ИИ.

Децентрализованные рынки вычислений начинают появляться для предоставления огромного физического оборудования, необходимого для обучения и вывода моделей искусственного интеллекта, в первую очередь в форме графических процессоров (GPU). Эти двусторонние рынки соединяют тех, кто сдаёт в аренду и тех, кто хочет арендовать вычисления, облегчая передачу стоимости и верификацию вычислений. В рамках децентрализованных вычислений начинают появляться несколько подкатегорий, предлагающих дополнительные функциональности. Помимо двусторонних рынков, в этом отчёте также рассматриваются поставщики обучения машинного обучения, предлагающие проверяемое обучение и настройку выводов, а также проекты, посвящённые связыванию вычислений и генерации моделей для обеспечения работы искусственного интеллекта, часто называемые интеллектуальными инцентивными сетями.

zkML - развивающаяся область для проектов, цель которых - предоставить верифицируемые выходные модели on-chain экономически целесообразным и своевременным образом. Эти проекты в основном позволяют приложениям обрабатывать тяжелые вычислительные запросы off-chain, а затем публиковать верифицируемые выходные данные on-chain, доказывая, что off-chain нагрузка была завершена и точна. zkML в настоящее время является как дорогостоящим, так и затратным по времени, но все чаще используется в качестве решения. Это подтверждается растущим числом интеграций между поставщиками zkML и DeFi/игровыми приложениями, желающими использовать модели искусственного интеллекта.

Обилие вычислительных мощностей и возможность проверки вычислений на цепочке открывают дверь для агентов искусственного интеллекта на цепочке. Агенты - это обученные модели, способные выполнять запросы от имени пользователей. Агенты предоставляют возможность значительно улучшить опыт работы на цепочке, позволяя пользователям выполнять сложные транзакции просто общаясь с чат-ботом. Однако на данный момент проекты агентов все еще сосредоточены на разработке инфраструктуры и инструментов для удобного и быстрого развертывания.

Децентрализованные вычисления

Обзор

Искусственный интеллект требует обширных вычислений для обучения моделей и выполнения выводов. За последнее десятилетие, по мере усложнения моделей, спрос на вычисления вырос экспоненциально. Например, OpenAI отметила, что с 2012 по 2018 год вычислительный спрос на его модели удваивался каждые два года, переходя к удвоению каждые три с половиной месяца. Это привело к всплеску спроса на графические процессоры, с некоторыми криптовалютными майнерами даже переориентирующими свои графические процессоры для предоставления облачных вычислительных услуг. По мере усиления конкуренции за доступ к вычислениям и роста издержек, некоторые проекты используют криптографическую технологию для предоставления децентрализованных вычислительных решений. Они предоставляют вычисления по требованию по конкурентоспособным ценам, позволяя командам обучать и запускать модели по доступным ценам. В некоторых случаях компромиссы могут касаться производительности и безопасности.

Спрос на современные видеокарты (например, те, которые производит Nvidia) значителен. В сентябре Tether приобрел долю в немецком биткоин-майнере Northern Data, предположительно потратив $420 миллионов на приобретение 10 000 H100 GPU (одни из самых продвинутых видеокарт для обучения искусственного интеллекта). Время ожидания для приобретения высокотехнологичного оборудования может составлять как минимум шесть месяцев, если не больше во многих случаях. Более того, компаниям часто приходится заключать долгосрочные контракты для обеспечения вычислительных объемов, которые они даже не используют. Это может привести к ситуациям, когда вычислительные ресурсы доступны, но не доступны на рынке. Децентрализованные вычислительные системы помогают решить эти рыночные неэффективности путем создания вторичного рынка, где владельцы вычислений могут немедленно сдавать в субаренду свою избыточную мощность по уведомлению, тем самым освобождая новые ресурсы.

Помимо конкурентоспособной ценовой политики и доступности, ключевым преимуществом децентрализованных вычислений является устойчивость к цензуре. Разработка передовых технологий искусственного интеллекта все больше контролируется крупными технологическими компаниями с непревзойденными вычислительными и доступом к данным возможностями. Первая ключевая тема, выделенная в ежегодном отчете 2023 года по индексу искусственного интеллекта, - это растущее превосходство промышленности над академией в разработке моделей искусственного интеллекта, что концентрирует контроль в руках нескольких технологических лидеров. Это вызывает беспокойство относительно их потенциала оказывать значительное влияние на установление норм и ценностей, лежащих в основе моделей искусственного интеллекта, особенно после того, как эти технологические компании выступают за регулирование с целью ограничения неуправляемого развития искусственного интеллекта.

Вертикали в децентрализованных вычислениях

В последние годы появилось несколько моделей децентрализованных вычислений, каждая со своим собственным фокусом и компромиссами.

Обобщенные вычисления

Широко говоря, проекты, такие как Akash, io.net, iExec и Cudos, представляют собой приложения децентрализованных вычислений, предлагающие не только решения в области данных и общего вычислительного обслуживания, но и специализированные вычисления для обучения и вывода искусственного интеллекта. Akash выделяется как единственная полностью открытая платформа "супероблака", использующая Cosmos SDK для своей сети доказательства доли. AKT, собственный токен Akash, служит методом оплаты для обеспечения безопасности сети и стимулирования участия. Запущенный в 2020 году, главная сеть Akash изначально сосредоточилась на рынке облачных вычислений без разрешения, предлагая услуги хранения и аренды CPU. В июне 2023 года Akash представил тестовую сеть, сосредоточенную на GPU, а затем в сентябре запустил основную сеть с упором на GPU, позволяя арендовать GPU для обучения и вывода искусственного интеллекта.

Экосистема Akash состоит из двух основных участников: арендаторов, которые ищут вычислительные ресурсы, и поставщиков, поставщиков вычислительных ресурсов. Процесс обратного аукциона облегчает сопоставление арендаторов и поставщиков, где арендаторы размещают свои требования к вычислениям, включая предпочтительные местоположения серверов или типы оборудования и свой бюджет. Поставщики затем делают ставки, и задание получает тот, кто сделал самую низкую ставку. Валидаторы поддерживают целостность сети, с текущим пределом в 100 валидаторов, который планируется увеличить в будущем. Участие в качестве валидатора открыто тем, кто ставит больше AKT, чем наименее обеспеченный текущий валидатор. Владельцы AKT могут делегировать свои токены валидаторам, при этом комиссии за транзакции и награды за блоки распределяются в AKT. Более того, за каждый лизинг сеть Akash зарабатывает «комиссию», решаемую сообществом, которая распределяется среди владельцев AKT.

Вторичный рынок

Вторичный рынок децентрализованных вычислений нацелен на устранение неэффективностей на существующем рынке вычислений, где ограничения предложения приводят к тому, что компании запасают ресурсы сверх своих потребностей, а долгосрочные контракты с облачными провайдерами еще больше ограничивают предложение. Платформы децентрализованных вычислений разблокируют новое предложение, позволяя любому с потребностями в вычислениях стать провайдером.

Будет ли всплеск спроса на GPU для обучения искусственного интеллекта приводить к устойчивому использованию сети на Akash, пока неясно. Исторически Akash предлагал услуги рынка на основе ЦП с 70-80% скидкой по сравнению с централизованными альтернативами, однако эта стратегия ценообразования не существенно способствовала принятию. Активность сети, измеряемая по активным арендам, стабилизировалась, с средним уровнем использования вычислительных мощностей в 33%, памяти в 16% и хранилища в 13% к концу второго квартала 2023 года, внушительно для он-чейн принятия, но свидетельствующий о том, что предложение все еще превышает спрос. Полгода с момента запуска сети GPU еще слишком рано для окончательной оценки долгосрочного принятия, хотя первые признаки показывают среднюю загрузку GPU в 44%, вызванную в основном спросом на высококачественные GPU, такие как A100, более 90% из которых были сданы в аренду.

Ежедневные расходы Акаша почти удвоились с момента внедрения графических процессоров, что частично объясняется увеличением использования других служб, особенно процессоров, но главным образом из-за нового использования GPU.

Цены конкурентоспособны или в некоторых случаях дороже, чем у централизованных аналогов, таких как Lambda Cloud и Vast.ai. Высокий спрос на топовые ГПУ, такие как H100 и A100, означает, что большинство владельцев такого оборудования не заинтересованы в его размещении на конкурентоспособном рынке.

Несмотря на первоначальную прибыль, барьеры для внедрения остаются. Децентрализованные вычислительные сети должны предпринять дальнейшие шаги для создания спроса и предложения, а команды изучают, как лучше всего привлечь новых пользователей. Например, в начале 2024 года Akash приняла Предложение 240, увеличивающее эмиссию AKT для поставщиков графических процессоров, чтобы стимулировать увеличение предложения, особенно для высокопроизводительных графических процессоров. Команды также работают над экспериментальными моделями, чтобы продемонстрировать потенциальным пользователям реальные возможности своих сетей. Akash обучает свои базовые модели и запустила чат-ботов и продукты для генерации изображений, использующие графические процессоры Akash. Кроме того, io.net разработала модель стабильной диффузии и запускает новые сетевые функции для лучшей эмуляции производительности и масштабирования сети.

Децентрализованное обучение машинного обучения

Помимо общих вычислительных платформ, которые могут удовлетворить потребности искусственного интеллекта, также появляется группа профессиональных поставщиков графических процессоров для искусственного интеллекта, сосредоточенных на обучении моделей машинного обучения. Например, Gensyn «координирует мощность и аппаратное обеспечение для создания коллективного интеллекта», придерживаясь философии, что «если кто-то хочет обучить что-то и кто-то готов это обучить, то это обучение должно происходить».

Этот протокол включает в себя четыре основных участника: подающие, решающие, валидаторы и информаторы. Податели подают задачи с запросами на обучение в сеть. Эти задачи включают цели обучения, модели для обучения и обучающие данные. В рамках процесса подачи подающие должны предварительно оплатить предполагаемую вычислительную стоимость, необходимую решающим.

После представления задачи исполнителям, которые фактически выполняют тренировку модели, назначаются задания. Затем исполнители отправляют выполненные задачи валидаторам, которые отвечают за проверку тренировки, чтобы убедиться, что она была правильно выполнена. Свистуны отвечают за обеспечение честности валидаторов. Чтобы мотивировать свистунов участвовать в сети, Gensyn планирует регулярно предлагать умышленно неправильные доказательства, вознаграждая свистунов, которые их выявляют.

Помимо предоставления вычислений для рабочих нагрузок, связанных с искусственным интеллектом, ключевым аспектом Gensyn является его система верификации, которая все еще находится в стадии разработки. Верификация необходима для обеспечения того, что внешние вычисления, предоставленные поставщиками GPU, выполняются правильно (т. е. гарантируется, что модели пользователей обучаются так, как они этого хотят). Gensyn решает эту проблему с помощью уникального подхода, используя новые методы верификации, называемые «вероятностными доказательствами обучения, протоколами точной графовой базы и играми на основе инцентивов Truebit». Это оптимистичная модель решения, которая позволяет валидаторам подтверждать, что решатели правильно запустили модель, не требуя полной повторной обработки модели самостоятельно, процесс, который является дорогостоящим и неэффективным.

Помимо инновационного метода верификации, Gensyn также утверждает, что он экономичен по сравнению с централизованными альтернативами и конкурентами в области криптовалюты - предлагая цены на обучение ML до 80% дешевле, чем AWS, в то время как он превосходит по результатам тестов подобные проекты, такие как Truebit.

Смогут ли эти первоначальные результаты быть воспроизведены в больших масштабах в децентрализованных сетях, еще предстоит увидеть. Gensyn надеется использовать избыточные вычислительные мощности таких провайдеров, как небольшие центры обработки данных, розничные пользователи и, в конечном итоге, небольшие мобильные устройства, такие как смартфоны. Однако, как признает сама команда Gensyn, использование разнородных вычислительных провайдеров создает некоторые новые проблемы.

Для централизованных поставщиков, таких как Google Cloud и Coreweave, вычислительные затраты дорогие, но коммуникация между вычислениями (пропускная способность и задержка) дешевая. Эти системы разработаны для облегчения коммуникации между аппаратным обеспечением как можно быстрее. Gensyn нарушает эту структуру, снижая затраты на вычисления, позволяя любому человеку в мире предложить графические процессоры, но в то же время увеличивая затраты на коммуникацию, так как сеть теперь должна координировать вычислительные задания на удаленных гетерогенных аппаратных средствах. Gensyn еще не запущен, но он представляет собой доказательство концепции, которая может быть достигнута при построении децентрализованного протокола обучения машинного обучения.

Децентрализованный общий интеллект

Децентрализованные вычислительные платформы также предлагают возможность разработки методов создания искусственного интеллекта. Bittensor - это децентрализованный вычислительный протокол, созданный на основе Substrate, который пытается ответить на вопрос: «Как мы можем превратить искусственный интеллект в совместный метод?» Bittensor нацелен на достижение децентрализации и комодификации генерации искусственного интеллекта. Запущенный в 2021 году, он надеется использовать мощь совместных моделей машинного обучения для непрерывного итеративного улучшения и создания лучшего искусственного интеллекта.

Bittensor черпает вдохновение из Bitcoin, с его собственной валютой TAO, имеющей предельный предел в 21 миллион и цикл половинения каждые четыре года (первое половинение запланировано на 2025 год). В отличие от использования Proof of Work для генерации правильных случайных чисел и заработка блоковых наград, Bittensor полагается на "Proof of Intelligence", требуя от майнеров запускать модели для генерации выводов в ответ на запросы вывода.

Способствование интеллекту

Первоначально Bittensor полагался на модель Mix of Experts (MoE) для получения выходных данных. При отправке запроса на вывод модель MoE не полагается на обобщенную модель, а перенаправляет запрос наиболее точной модели для данного типа входных данных. Представьте себе, что вы строите дом, где вы нанимаете различных специалистов для различных аспектов строительного процесса (например, архитекторов, инженеров, маляров, строителей и т. д.). Министерство энергетики применяет это к моделям машинного обучения, пытаясь использовать выходные данные различных моделей на основе входных данных. Как объяснила основатель Bittensor Ала Шаабана, это похоже на «разговор с комнатой, полной умных людей, чтобы получить лучший ответ, а не разговор с одним человеком». Из-за проблем с обеспечением правильной маршрутизации, синхронизации сообщений с правильной моделью и стимулов этот метод был отложен до дальнейшего развития проекта.

В сети Bittensor есть два основных участника: валидаторы и майнеры. Валидаторы отправляют майнерам запросы на вывод, просматривают их выходные данные и ранжируют их в зависимости от качества ответов. Чтобы гарантировать надежность своих рейтингов, валидаторам присваивается оценка «vtrust» в зависимости от того, насколько их рейтинги согласуются с другими валидаторами. Чем выше показатель vtrust валидатора, тем больше эмиссии TAO он получает. Это делается для того, чтобы побудить валидаторов со временем достичь консенсуса по ранжированию моделей, поскольку чем больше валидаторов согласны с рейтингами, тем выше их индивидуальные баллы vtrust.

Майнеры, также известные как серверы, являются участниками сети, которые запускают фактические модели машинного обучения. Они соревнуются в предоставлении наиболее точных результатов для запросов валидаторов, и чем более точные результаты, тем больше TAO-эмиссий они зарабатывают. Майнеры вольны создавать эти результаты так, как им угодно. Например, в будущем совершенно возможно, что майнеры Bittensor будут иметь ранее обученные модели на Gensyn и использовать их для заработка TAO-эмиссий.

Сегодня большинство взаимодействий происходит непосредственно между валидаторами и майнерами. Валидаторы предоставляют входные данные майнерам и запрашивают результаты (т.е. обучение модели). После того как валидаторы запрашивают майнеров в сети и получают их ответы, они ранжируют майнеров и представляют свои рейтинги в сети.

Взаимодействие между валидаторами (полагающимися на PoS) и майнерами (полагающимися на Model Proof, форму PoW) известно как согласование Yuma. Целью является стимулирование майнеров для производства лучших результатов для заработка эмиссий TAO и стимулирование валидаторов для точного ранжирования результатов майнеров, заработка более высоких баллов vtrust и увеличения своих наград TAO, тем самым формируя механизм согласования для сети.

Подсети и Приложения

Взаимодействия на Bittensor в основном включают в себя представление запросов валидаторами майнерам и оценку их результатов. Однако по мере улучшения качества участвующих майнеров и общего интеллекта сети Bittensor создает слой приложений поверх своего существующего стека, чтобы разработчики могли создавать приложения, которые запрашивают сеть Bittensor.

В октябре 2023 года Bittensor представила подсети через обновление Revolution, сделав значительный шаг к достижению этой цели. Подсети — это отдельные сети на Bittensor, которые стимулируют определенное поведение. Революция открыла сеть для всех, кто заинтересован в создании подсетей. В течение нескольких месяцев после запуска было запущено более 32 подсетей, включая подсети для текстовых подсказок, сбора данных, создания изображений и хранения. По мере того, как подсети созревают и становятся готовыми к продукту, создатели подсетей также будут создавать интеграции приложений, что позволит командам создавать приложения, которые запрашивают определенные подсети. Некоторые приложения, такие как чат-боты, генераторы изображений, боты для ответов в Twitter и рынки предсказаний, существуют, но нет никаких формальных стимулов, кроме финансирования со стороны Bittensor Foundation, для валидаторов, чтобы они принимали и пересылали эти запросы.

Для более ясного объяснения, вот пример того, как Bittensor может работать, когда приложения интегрируются в сеть.

Подсети зарабатывают TAO на основе производительности, оцениваемой корневой сетью. Корневая сеть, расположенная над всеми подсетями, фактически действует как специальная подсеть и управляется 64 крупнейшими валидаторами подсетей по доле. Валидаторы корневой сети ранжируют подсети на основе их производительности и периодически выделяют эмиссию TAO подсетям. Таким образом, отдельные подсети действуют как майнеры для корневой сети.

Видение Биттензора

Bittensor по-прежнему испытывает ростовые боли, расширяя функционал протокола для стимулирования генерации интеллекта на нескольких субсетях. Майнеры постоянно разрабатывают новые способы атаки сети для получения большего вознаграждения TAO, например, слегка изменяя вывод высокооцененных выводов, запущенных их моделями, а затем представляя несколько вариантов. Предложения по управлению, затрагивающие всю сеть, могут быть представлены и реализованы только Триумвиратом, полностью состоящим из заинтересованных сторон Фонда Opentensor (примечательно, что предложения требуют одобрения Сената Bittensor, состоящего из валидаторов Bittensor, перед реализацией). Токеномика проекта модифицируется для усиления стимулов к перекрестному использованию TAO. Проект также быстро завоевал известность своим уникальным подходом, при этом генеральный директор одного из самых популярных веб-сайтов по ИИ, HuggingFace, заявил, что Bittensor должен добавить свои ресурсы на сайт.

В недавней статье под названием «Парадигма Bittensor», опубликованной основными разработчиками, команда изложила видение Bittensor о том, что в конечном итоге он станет «агностическим к тому, что измеряется». Теоретически это может позволить Bittensor разрабатывать подсети, которые поощряют любой тип поведения, поддерживаемый TAO. Все еще существуют значительные практические ограничения — прежде всего, доказательство того, что эти сети могут масштабироваться для обработки такого разнообразного спектра процессов и что потенциальные стимулы способствуют прогрессу за пределами централизованных продуктов.

Построение децентрализованного стека вычислений для моделей искусственного интеллекта

Выше приведен развернутый обзор различных типов протоколов децентрализованного искусственного интеллекта (ИИ), находящихся в стадии разработки. На ранних этапах развития и принятия они залагивают основу для экосистемы, которая в конечном итоге может облегчить создание «строительных блоков ИИ», аналогичную концепции «денежных Лего» в DeFi. Композиционность безразрешимых блокчейнов позволяет возможность строить каждый протокол на основе другого, создавая более комплексную децентрализованную экосистему искусственного интеллекта.
Например, вот как Akash, Gensyn и Bittensor могут взаимодействовать, чтобы отвечать на запросы на вывод.

Важно понимать, что это всего лишь один пример того, что может произойти в будущем, а не отражение текущей экосистемы, существующих партнерств или потенциальных результатов. Ограничения интероперабельности и другие описанные ниже соображения значительно ограничивают возможности интеграции сегодня. Более того, фрагментация ликвидности и необходимость использовать несколько токенов могут нанести вред пользовательскому опыту, что отмечено основателями Akash и Bittensor.

Другие децентрализованные продукты

Помимо вычислений, в области криптовалютного пространства было представлено несколько других децентрализованных инфраструктурных сервисов для поддержки развивающейся экосистемы искусственного интеллекта. Перечислить все они выходит за рамки данного отчета, но некоторые интересные и наглядные примеры включают:

  • Ocean: Децентрализованный рынок данных, где пользователи могут создавать NFT-токены, представляющие их данные, и покупать их с помощью токенов данных. Пользователи могут монетизировать свои данные и иметь большую суверенитет над ними, предоставляя командам искусственного интеллекта доступ к данным, необходимым для разработки и обучения моделей.
  • Grass: Децентрализованный рынок полосы пропускания, где пользователи могут продавать свою избыточную полосу пропускания компаниям по искусственному интеллекту, которые используют ее для сбора данных из интернета. Построенный на сети Wynd, это позволяет отдельным лицам монетизировать свою полосу пропускания и предлагает покупателям полосы пропускания более разнообразную перспективу на то, что отдельные пользователи видят в сети (поскольку индивидуальный доступ в интернет часто настраивается на основе их IP-адреса).
  • HiveMapper: Создает децентрализованный картографический продукт, включающий информацию, собранную от ежедневных водителей. HiveMapper полагается на искусственный интеллект для интерпретации изображений, собранных с видеорегистраторов пользователей, и вознаграждает пользователей токенами за помощь в настройке моделей искусственного интеллекта через обратную связь усиленного человеческого обучения (RHLF).

В целом, эти примеры указывают на практически безграничные возможности для изучения децентрализованных рыночных моделей, поддерживающих модели искусственного интеллекта или периферийную инфраструктуру, необходимую для их разработки. В настоящее время большинство этих проектов находятся на стадии концепции и требуют дальнейших исследований и разработок, чтобы доказать, что они могут функционировать в масштабе, необходимом для предоставления полного спектра услуг по искусственному интеллекту.

Прогноз

Продукты децентрализованных вычислений все еще находятся на ранних этапах развития. Они только начали запускать передовые вычислительные возможности, способные обучать самые мощные модели искусственного интеллекта в производстве. Для того чтобы завоевать значительную долю рынка, им необходимо продемонстрировать фактические преимущества по сравнению с централизованными альтернативами. Потенциальные триггеры для более широкого принятия включают в себя:

  • Спрос/предложение графического процессора. Нехватка графических процессоров в сочетании с быстро растущими требованиями к вычислительным ресурсам приводит к гонке вооружений графических процессоров. Из-за ограничений графического процессора OpenAI иногда ограничивала доступ к своей платформе. Такие платформы, как Akash и Gensyn, могут предложить конкурентоспособные по цене альтернативы для команд, нуждающихся в высокопроизводительных вычислениях. Следующие 6-12 месяцев представляют собой уникальную возможность для провайдеров децентрализованных вычислений привлечь новых пользователей, которые вынуждены рассматривать децентрализованные продукты из-за отсутствия более широкого доступа к рынку. Кроме того, благодаря постоянно улучшающейся производительности моделей с открытым исходным кодом, таких как LLaMA2 от Meta, пользователи больше не сталкиваются с теми же барьерами при развертывании эффективных тонко настроенных моделей, что делает вычислительные ресурсы основным узким местом. Однако само по себе существование платформ не гарантирует достаточного предложения компьютеров и соответствующего потребительского спроса. Закупка высокопроизводительных графических процессоров остается сложной задачей, а стоимость не всегда является основным мотивирующим фактором спроса. Эти платформы столкнутся с проблемами в демонстрации реальных преимуществ использования децентрализованных вычислительных возможностей (будь то из-за стоимости, устойчивости к цензуре, времени безотказной работы и отказоустойчивости или доступности) для накопления нестабильных пользователей. Они должны действовать быстро, поскольку инвестиции в инфраструктуру GPU и строительство идут с поразительной скоростью.
  • Регулирование. Регулирование остается препятствием для движения децентрализованных вычислений. В краткосрочной перспективе отсутствие четкого регулирования означает, что как поставщики, так и пользователи сталкиваются с потенциальными рисками при использовании этих услуг. Что делать, если поставщики предлагают вычисления или покупатели по незнанию покупают вычисления у организаций, находящихся под санкциями? Пользователи могут сомневаться в использовании децентрализованных платформ, которым не хватает централизованного контроля и надзора. Протоколы пытаются смягчить эти проблемы, встраивая средства контроля в свои платформы или добавляя фильтры для доступа только к известным поставщикам вычислительных услуг (т. е. тем, кто предоставил информацию «Знай своего клиента» (KYC)), но для защиты конфиденциальности при обеспечении соответствия требованиям необходим более надежный подход. В ближайшей перспективе мы можем стать свидетелями появления платформ KYC и комплаенса, которые ограничивают доступ к своим протоколам для решения этих проблем. Более того, дискуссии вокруг возможной новой нормативно-правовой базы в США (примером чего является издание Указа о содействии безопасному, надежному и заслуживающему доверия развитию и использованию искусственного интеллекта) подчеркивают потенциал регулирующих мер по дальнейшему ограничению доступа к GPU.
  • Цензура. Регулирование — это палка о двух концах, и децентрализованные вычислительные продукты могут выиграть от действий, ограничивающих доступ ИИ. Основатель OpenAI Сэм Альтман (Sam Altman) заявил в Конгрессе, что регулирующие органы должны выдавать лицензии на разработку ИИ. Дискуссии о регулировании ИИ только начинаются, но любые попытки ограничить доступ или подвергнуть цензуре возможности ИИ могут ускорить внедрение децентрализованных платформ, которые не сталкиваются с такими барьерами. Смена руководства (или ее отсутствие) в OpenAI в ноябре еще раз указывает на то, что доверять полномочия по принятию решений в самых мощных существующих моделях ИИ немногим рискованно. Более того, все модели ИИ неизбежно отражают предубеждения тех, кто их создает, намеренно или нет. Один из способов устранить эти предубеждения — сделать модели как можно более открытыми для тонкой настройки и обучения, гарантируя, что любой человек в любом месте может получить доступ к множеству моделей с различными предубеждениями.
  • Конфиденциальность данных. Децентрализованные вычисления могут быть более привлекательными, чем централизованные альтернативы, когда они интегрируются с внешними решениями по данным и конфиденциальности, которые предлагают пользователям суверенитет данных. Samsung стала жертвой, когда поняла, что инженеры использовали ChatGPT для проектирования микросхем и утекали чувствительную информацию в ChatGPT. Phala Network и iExec утверждают, что предоставляют пользователям безопасные ограждения SGX для защиты пользовательских данных, и продолжающиеся исследования полностью гомоморфного шифрования могут дальше разблокировать конфиденциальные децентрализованные вычисления. Поскольку искусственный интеллект все больше интегрируется в нашу жизнь, пользователи будут все больше ценить возможность запускать модели в приложениях с защитой конфиденциальности. Пользователям также необходима поддержка для служб композиции данных, чтобы они могли без проблем переносить данные из одной модели в другую.
  • Пользовательский опыт (UX). Пользовательский опыт остается значительным барьером для более широкого принятия всех видов криптовалютных приложений и инфраструктуры. Это не отличается для децентрализованных вычислительных продуктов и усугубляется в некоторых случаях из-за необходимости понимания разработчиками как криптовалют, так и искусственного интеллекта. Улучшения должны начинаться с основ, таких как взаимодействие с блокчейном и извлечение информации, чтобы обеспечить такое же качественное исполнение, как у текущих лидеров рынка. Это очевидно, учитывая сложность многих работоспособных децентрализованных вычислительных протоколов, предлагающих более дешевые продукты, в получении регулярного использования.

Смарт-контракты и zkML

Смарт-контракты являются угловым камнем любой экосистемы блокчейна. Они автоматически выполняются в соответствии с определенным набором условий, снижая или устраняя необходимость в доверенных сторонах, тем самым обеспечивая создание сложных децентрализованных приложений, таких как те, что присутствуют в DeFi. Однако функциональность смарт-контрактов до сих пор ограничена, поскольку они работают на основе заранее установленных параметров, которые должны быть обновлены.

Например, смарт-контракт, развернутый для протокола кредитования/заимствования, который содержит спецификации о том, когда позиции должны быть ликвидированы на основе определенного соотношения кредита к стоимости. Несмотря на то, что эти смарт-контракты полезны в статических средах, они нуждаются в постоянном обновлении, чтобы адаптироваться к изменениям толерантности к риску в динамических ситуациях, что создает проблемы для контрактов, которые не управляются централизованными процессами. Например, DAO, полагающиеся на децентрализованные процессы управления, могут недостаточно быстро реагировать на системные риски.

Интеграция искусственного интеллекта (т. е. моделей машинного обучения) в смарт-контракты является потенциальным способом улучшения функциональности, безопасности и эффективности, а также повышения общего пользовательского опыта. Однако эти интеграции также вносят дополнительные риски, поскольку невозможно гарантировать, что модели, лежащие в основе этих смарт-контрактов, не будут использованы или не смогут интерпретировать длиннохвостые ситуации (учитывая дефицит входных данных, длиннохвостые ситуации сложно обучить моделям).

Машинное обучение с нулевым разглашением информации (zkML)

Машинное обучение требует значительных вычислений для запуска сложных моделей, что делает непрактичным непосредственный запуск моделей ИИ в смарт-контрактах из-за высоких затрат. Например, протокол DeFi, предлагающий модели оптимизации доходности, обнаружит трудности в запуске этих моделей on-chain без возникновения запретительных газовых сборов. Одно из решений - увеличить вычислительные возможности базовой блокчейна. Однако это также повышает требования к валидаторам цепочки, потенциально угрожая децентрализации. Вместо этого некоторые проекты исследуют использование zkML для проверки выводов способом, не требующим интенсивных вычислений on-chain в доверительном порядке.

Один из распространенных примеров, иллюстрирующих полезность zkML, - это когда пользователи нуждаются в запуске данных через модели и проверке того, что их коллеги действительно запустили правильную модель. Разработчики, использующие децентрализованные вычислительные провайдеры для обучения своих моделей, могут беспокоиться о том, что эти провайдеры снизят затраты, используя более дешевые модели, которые производят результаты с едва заметными различиями. zkML позволяет провайдерам вычислений запускать данные через свои модели, а затем генерировать доказательства, которые могут быть проверены on-chain, доказывая, что выходы модели для заданных входных данных являются правильными. В этом сценарии провайдер модели получает дополнительное преимущество в том, что может предложить свою модель, не раскрывая основные веса, которые породили выходы.

Также возможен и обратный вариант. Если пользователи хотят запускать модели на своих данных, но не хотят предоставлять доступ к своим данным проектам моделей из-за проблем с конфиденциальностью (например, при медицинских проверках или коммерческой информации), они могут запускать модель на своих данных, не раскрывая данных, а затем подтверждать через доказательства, что они запустили правильную модель. Эти возможности значительно расширяют пространство проектирования для интеграции ИИ и функций смарт-контрактов, решая сложные вычислительные ограничения.

Инфраструктура и инструменты

Учитывая раннее состояние области zkML, развитие в основном сосредоточено на построении инфраструктуры и инструментов, необходимых командам, чтобы преобразовать свои модели и выходы в доказательства, подтверждаемые на цепочке. Эти продукты абстрагируют нулевые аспекты знаний насколько это возможно.

EZKL и Giza — это два проекта, создающих такие инструменты, предоставляя проверяемые доказательства выполнения модели машинного обучения. Оба помогают командам создавать модели машинного обучения, чтобы гарантировать, что эти модели могут выполняться таким образом, чтобы результаты можно было проверять в блокчейне надежным способом. Оба проекта используют Open Neural Network Exchange (ONNX) для преобразования моделей машинного обучения, написанных на распространенных языках, таких как TensorFlow и Pytorch, в стандартный формат. Затем они выводят версии этих моделей, которые также генерируют доказательства zk при выполнении. EZKL имеет открытый исходный код, производящий zk-SNARK, в то время как Giza имеет закрытый исходный код, производящий zk-STARK. Оба проекта в настоящее время совместимы только с EVM.

В последние месяцы EZKL сделал значительные успехи в усовершенствовании решений zkML, в основном сосредотачиваясь на снижении затрат, улучшении безопасности и ускорении генерации доказательств. Например, в ноябре 2023 года EZKL интегрировала новую библиотеку открытого исходного кода для GPU, что сократило время агрегации доказательств на 35%; в январе EZKL выпустила Lilith, программное решение для интеграции кластеров высокопроизводительных вычислений и оркестрации параллельных систем заданий при использовании доказательств EZKL. Уникальность Giza заключается в предоставлении инструментов для создания проверяемых моделей машинного обучения и планирования реализации web3-эквивалента Hugging Face, открывая пользовательский рынок для сотрудничества и обмена моделями zkML, а также в конечном итоге интегрируя децентрализованные вычислительные продукты. В январе EZKL опубликовала бенчмарк-оценку, сравнивая производительность EZKL, Giza и RiscZero (как описано ниже), демонстрируя более быстрые времена доказательств и использование памяти.

В настоящее время Modulus Labs разрабатывает новую технологию доказательства с нулевым разглашением (zk), специально разработанную для моделей ИИ. Компания Modulus опубликовала статью под названием «Интеллектуальная стоимость», в которой подразумевается, что запуск моделей ИИ в блокчейне влечет за собой непомерно высокие затраты. В этом документе, опубликованном в январе 2023 года, сравниваются существующие системы zk-proof, чтобы выявить улучшения в возможностях zk-доказательств и узкие места в моделях ИИ. Он показывает, что существующие продукты слишком дороги и неэффективны для крупномасштабных приложений ИИ. Основываясь на первоначальных исследованиях, Modulus запустил Remainder в ноябре, специализированный zk prover, направленный на снижение стоимости и времени проверки моделей ИИ, что делает проекты экономически жизнеспособными для крупномасштабной интеграции в смарт-контракты. Их работа является проприетарной, что делает невозможным сравнение с упомянутыми решениями, но недавно она была процитирована в блоге Виталика о криптографии и искусственном интеллекте.

Развитие инструментов и инфраструктуры критично для будущего роста пространства zkML, поскольку это может значительно снизить трение, связанное с развертыванием проверяемых вычислений вне цепи и потребностью в командах zk. Создание безопасных интерфейсов для практикующих машинного обучения, не связанных с криптовалютами, позволит приложениям экспериментировать с действительно новыми случаями использования. Кроме того, эти инструменты решают основной барьер для более широкого принятия zkML: отсутствие квалифицированных разработчиков, заинтересованных в работе на пересечении нулевого знания, машинного обучения и криптографии.

Копроцессор

Другие решения в разработке, называемые «сопроцессорами» (включая RiscZero, Axiom и Ritual), выполняют различные функции, включая проверку оффчейн вычислений ончейн. Как EZKL, Giza и Modulus, их целью является полная абстракция процесса генерации zk-доказательств, создание виртуальных машин с нулевым разглашением способных выполнять оффчейн программы и генерировать ончейн верифицируемые доказательства. RiscZero и Axiom ориентированы на простые модели ИИ как более общие сопроцессоры, в то время как Ritual построен специально для использования с моделями ИИ.

Первый экземпляр Ritual, Infernet, включает Infernet SDK, который позволяет разработчикам отправлять запросы на вывод в сеть и получать в ответ выводы и необязательные доказательства. Узлы Infernet обрабатывают эти вычисления вне цепи блоков перед возвратом выводов. Например, DAO может установить процесс, обеспечивающий выполнение определенных предварительных условий перед представлением всех новых предложений управления. Каждый раз, когда представляется новое предложение, контракт управления генерирует запрос на вывод через Infernet, вызывая модель ИИ, специально обученную для управления DAO. Эта модель проверяет предложение, чтобы гарантировать выполнение всех необходимых стандартов, и возвращает выводы и доказательства для утверждения или отклонения представления предложения.

За следующий год команда Ritual планирует внедрить больше функций, формируя инфраструктурный уровень, известный как суперцепь Ritual. Многие обсуждаемые проекты могут быть интегрированы как поставщики услуг в Ritual. Команда Ritual уже интегрировалась с EZKL для генерации доказательств и вскоре может добавить функции от других ведущих поставщиков. Узлы Infernet на Ritual также могут использовать графические процессоры Akash или io.net и запрашивать модели, обученные в подсети Bittensor. Их конечная цель - стать предпочтительным провайдером открытой ИИ-инфраструктуры, предлагая услуги по машинному обучению и другим задачам, связанным с ИИ, для любой сети и любой нагрузки.

Приложения

zkML помогает примирить дихотомию между блокчейном, который по своей природе ограничен в ресурсах, и искусственным интеллектом, который требует значительных вычислительных ресурсов и ресурсов данных. Как говорит основатель Giza, «варианты использования невероятно богаты... Это немного похоже на вопрос о том, каковы были варианты использования смарт-контрактов в первые дни Ethereum... То, что мы делаем, — это просто расширение вариантов использования смарт-контрактов». Однако, как уже отмечалось, нынешнее развитие происходит преимущественно на инструментальном и инфраструктурном уровне. Приложения все еще находятся на стадии изучения, и перед командами стоит задача доказать, что ценность, получаемая от внедрения моделей с помощью zkML, перевешивает ее сложность и стоимость.

Текущие приложения включают в себя:

  • Децентрализованные финансы (DeFi). zkML расширяет возможности смарт-контрактов, обновляя пространство дизайна для DeFi. Протоколы DeFi предлагают множество проверяемых и неизменяемых данных для моделей машинного обучения, которые можно использовать для создания доходных или торговых стратегий, анализа рисков, пользовательского опыта и т. д. Например, Giza сотрудничала с Yearn Finance для создания экспериментального механизма автоматической оценки рисков для новых хранилищ Yearn v3. Modulus Labs работает с Lyra Finance над интеграцией машинного обучения в свой AMM, с Ion Protocol для реализации моделей анализа рисков валидаторов и помогает Upshot в проверке информации о ценах NFT с поддержкой искусственного интеллекта. Такие протоколы, как NOYA (с использованием EZKL) и Mozaic, предоставляют доступ к проприетарным моделям вне сети, позволяя пользователям получать доступ к автоматизированному майнингу ликвидности при проверке входных данных и доказательств в сети. Spectral Finance разрабатывает механизм кредитного скоринга в сети для прогнозирования вероятности дефолта заемщиков Compound или Aave по кредитам. Благодаря zkML эти так называемые продукты «De-Ai-Fi», вероятно, будут становиться все более популярными в ближайшие годы.
  • Игры. Игры давно считаются объектом нарушения и улучшения с помощью публичных блокчейнов. zkML позволяет использовать искусственный интеллект на цепи для игр. Компания Modulus Labs реализовала концепцию простых ончейн-игр. "Лила против Мира" - это игра на основе теории игр в шахматы, где пользователи соревнуются с моделью искусственного интеллекта, а zkML проверяет каждый ход Лилы на основе модели игры. Аналогично, команды используют фреймворк EZKL для создания простых песенных конкурсов и онлайн-крестики-нолики. Cartridge использует Giza для того, чтобы команды могли развертывать полностью ончейн-игры, недавно выделив простую игру с искусственным интеллектом, где пользователи могут соревноваться в создании лучших моделей для машин, пытающихся избегать препятствий. Хотя эти концепции просты, они указывают на будущие реализации, способные к более сложной проверке на цепи, такие как сложные актеры NPC, которые могут взаимодействовать с экономикой внутриигровых миров, как это видно в "AI Arena", игре Super Smash Brothers, где игроки могут тренировать своих воинов и затем развертывать их в качестве моделей искусственного интеллекта для борьбы.
  • Идентификация, происхождение и конфиденциальность. Криптовалюты используются для проверки подлинности и борьбы с растущей проблемой контента, созданного/манипулируемого искусственным интеллектом, и глубоких подделок. zkML может способствовать этим усилиям. WorldCoin - это решение для проверки личности, которое требует, чтобы пользователи сканировали свои радужные оболочки глаза для создания уникального идентификатора. В будущем биометрические идентификаторы можно будет размещать на личных устройствах с помощью шифрования и проверять с помощью моделей, которые запускаются локально. Затем пользователи могли предоставлять биометрические доказательства, не раскрывая свою личность, тем самым защищаясь от атак Сивиллы, обеспечивая при этом конфиденциальность. Это также может относиться к другим выводам, требующим конфиденциальности, таким как использование моделей для анализа медицинских данных/изображений для выявления заболеваний, проверка личности и разработка алгоритмов сопоставления в приложениях для знакомств, а также к страховым и кредитным учреждениям, нуждающимся в проверке финансовой информации.

Перспектива

zkML остается экспериментальным, поскольку большинство проектов сосредоточены на создании инфраструктурных примитивов и концепций. Существующие вызовы включают вычислительные затраты, ограничения памяти, сложность модели, ограниченные инструменты и инфраструктуру, а также талант разработчика. Другими словами, необходимо проделать значительную работу, прежде чем zkML сможет быть реализован в масштабах, требуемых потребительскими продуктами.

Однако по мере зрелости отрасли и устранения этих ограничений zkML станет ключевым компонентом интеграции искусственного интеллекта с криптографией. По сути, zkML обещает привести любой масштаб вычислений вне цепи на цепь, сохраняя те же или сходные гарантии безопасности, что и при выполнении на цепи. Однако, прежде чем эта видение будет реализовано, ранние принявшие технологию будут продолжать балансировать конфиденциальность и безопасность zkML против эффективности альтернатив.

Агенты искусственного интеллекта

Агенты искусственного интеллекта

Одна из самых захватывающих интеграций искусственного интеллекта и криптовалюты - это непрерывный эксперимент с агентами искусственного интеллекта. Агенты - это автономные роботы, способные принимать, интерпретировать и выполнять задачи с использованием моделей искусственного интеллекта. Это может варьироваться от наличия личного ассистента, доступного в любое время и настроенного под ваши предпочтения, до найма финансового агента для управления и корректировки вашего инвестиционного портфеля на основе ваших предпочтений по риску.

Учитывая, что криптовалюта предлагает инфраструктуру платежей без разрешений и доверия, агенты и криптовалюта могут быть хорошо интегрированы. После обучения агенты будут иметь кошелек, что позволит им проводить транзакции самостоятельно, используя смарт-контракты. Например, сегодняшние агенты могут собирать информацию в интернете, а затем торговать на рынках прогнозов на основе моделей.

Поставщики агентов

Morpheus - один из самых новых проектов агентов с открытым исходным кодом, запущенных в 2024 году на Ethereum и Arbitrum. Его белая книга была опубликована анонимно в сентябре 2023 года, обеспечивая основу для формирования и построения сообщества, включая такие выдающиеся фигуры, как Эрик Ворхис. В белой книге представлен протокол загружаемого смарт-агента, открытый LLM, который может работать локально, управляемый кошельком пользователя, и взаимодействовать со смарт-контрактами. Он использует рейтинги смарт-контрактов, чтобы помочь агентам определить, с какими смарт-контрактами можно безопасно взаимодействовать на основе критериев, таких как количество обработанных транзакций.

Белая книга также предоставляет структуру для создания сети Morpheus, включая инцентивные структуры и инфраструктуру, необходимую для запуска протокола умного агента. Это включает стимулы для участников создавать фронтенды для взаимодействия с агентами, API для разработчиков для создания плагинов агентов для взаимодействия, а также облачные решения для пользователей для доступа к вычислениям и хранению, необходимым для запуска агентов на устройствах края. Начальное финансирование проекта было запущено в начале февраля, и полный протокол должен быть запущен во втором квартале 2024 года.

Децентрализованная автономная инфраструктурная сеть (DAIN) — это новый протокол агентской инфраструктуры, создающий экономику от агента к агенту на Solana. Цель DAIN — дать возможность агентам из разных предприятий беспрепятственно взаимодействовать друг с другом через общий API, значительно открывая пространство для проектирования агентов ИИ, уделяя особое внимание агентам, которые могут взаимодействовать как с продуктами web2, так и с web3. В январе DAIN объявила о своем первом партнерстве с Asset Shield, позволяющем пользователям добавлять «агентов-подписантов» в свои мультиподписи, способные интерпретировать транзакции и одобрять/отклонять их на основе установленных пользователем правил.

Fetch.AI - один из первых внедренных протоколов искусственного интеллекта и разработал экосистему для создания, развертывания и использования агентов on-chain с использованием токенов FET и кошельков Fetch.AI. Протокол предлагает комплексный набор инструментов и приложений для использования агентов, включая функции кошелька для взаимодействия и заказа агентов.

Autonolas, основанная бывшими членами команды Fetch, представляет собой открытый рынок для создания и использования децентрализованных ИИ-агентов. Autonolas также предоставляет разработчикам набор инструментов для создания агентов искусственного интеллекта, размещенных вне сети, которые могут подключаться к нескольким блокчейнам, включая Polygon, Ethereum, Gnosis Chain и Solana. В настоящее время у них есть несколько активных агентов для проверки концепции, в том числе для прогнозных рынков и управления DAO.

SingularityNet строит децентрализованную площадку для искусственного интеллекта, где специализированные агенты ИИ могут быть задействованы, которые могут быть наняты другими агентами для выполнения сложных задач. Другие компании, такие как AlteredStateMachine, разрабатывают интеграции агентов ИИ с NFT. Пользователи создают NFT с случайными атрибутами, которые дают им преимущества и недостатки в различных задачах. Затем эти агенты могут быть обучены для улучшения определенных атрибутов для использования в играх, DeFi или в качестве виртуальных ассистентов и обмениваться ими с другими пользователями.

В целом эти проекты предвидят будущую экосистему агентов, способных совместно работать не только для выполнения задач, но и для помощи в построении общего искусственного интеллекта. Действительно сложные агенты будут иметь возможность автономно выполнять любую задачу пользователя. Например, полностью автономные агенты смогут определить, как нанять другого агента для интеграции API, затем выполнить задачу, не обязательно убеждаясь, что агент уже интегрирован с внешними API (например, сайтами бронирования путешествий) перед использованием. С точки зрения пользователя нет необходимости проверять, может ли агент выполнить задачу, поскольку агент может определить это самостоятельно.

Биткойн и агенты искусственного интеллекта

В июле 2023 года компания Lightning Labs запустила концептуальную реализацию использования агентов в Lightning Network, которую назвали биткоин-набором компании LangChain. Этот продукт особенно интересен, поскольку он направлен на решение проблемы, которая становится все более серьезной в мире Веб 2 - ограниченные и дорогостоящие ключи API веб-приложений.

LangChain решает эту проблему, предоставляя разработчикам набор инструментов, которые позволяют агентам покупать, продавать и удерживать биткоины, а также запрашивать ключи API и отправлять микроплатежи. На традиционных платежных платформах микроплатежи являются чрезмерно дорогими из-за комиссий, но на сети Lightning агенты могут отправлять неограниченное количество микроплатежей ежедневно по минимальной стоимости. Когда используется с фреймворком L402 платного метрического API LangChain, компании могут корректировать затраты на доступ к своим API в зависимости от увеличения и уменьшения использования, а не устанавливать единый дорогой стандарт.

В будущем цепные активности будут в основном стимулироваться взаимодействием между агентами, требуя механизмов, обеспечивающих возможность взаимодействия агентов друг с другом без запретительных затрат. Этот ранний пример демонстрирует потенциал использования агентов на разрешенных и экономически эффективных платежных рельсах, открывая возможности для новых рынков и экономических взаимодействий.

Прогноз

Область агентов все еще находится в начальной стадии развития. Проекты только начали запускать функциональных агентов, способных обрабатывать простые задачи, доступ к которым обычно ограничен опытными разработчиками и пользователями. Однако с течением времени одним из наиболее значительных последствий искусственного интеллекта для криптовалют будет улучшение пользовательского опыта во всех отраслях. Транзакции начнут переходить от основанных на нажатии кнопок к текстовым, что позволит пользователям взаимодействовать с агентами на цепи через разговорные интерфейсы. Команды, такие как Dawn Wallet, уже запустили чат-бот кошельки, позволяющие пользователям взаимодействовать на цепи.

Кроме того, остается неясным, как агенты будут работать в Web 2, поскольку финансовые рельсы полагаются на регулируемые банковские учреждения, которые не могут работать 24 часа в сутки 7 дней в неделю или способствовать беспрепятственным трансграничным транзакциям. Как подчеркнула Лин Олден, отсутствие возвратов и возможность обработки микротранзакций делают криптовалютные рельсы особенно привлекательными по сравнению с кредитными картами. Однако, если агенты станут более распространенным средством для транзакций, существующие поставщики платежных услуг и приложения, вероятно, быстро адаптируются, внедряя инфраструктуру, необходимую для работы на существующих финансовых рельсах, тем самым уменьшая некоторые преимущества использования криптовалюты.

В настоящее время агенты могут быть ограничены детерминированными криптовалютными транзакциями, где определенный ввод гарантирует определенный вывод. Обе модели описали способность этих агентов выяснить, как выполнять сложные задачи, и инструменты расширяют спектр задач, которые они могут выполнить, обе из которых требуют дальнейшего развития. Для того чтобы криптовалютные агенты стали полезными за пределами новых случаев использования криптовалюты на цепочке, требуется более широкая интеграция и принятие криптовалюты в качестве формы оплаты, а также ясность в регулировании. Однако, по мере развития этих компонентов, агенты готовы стать одними из крупнейших потребителей децентрализованных вычислений и решений zkML, автономно получая и решая любую задачу недетерминированным образом.

Заключение

ИИ внедряет в криптовалюту те же инновации, которые мы видели в web2, улучшая все, начиная от развития инфраструктуры и опыта пользователей до доступности. Однако проекты все еще находятся на ранних стадиях развития, и ближайшая интеграция криптовалюты и искусственного интеллекта в основном будет осуществляться за счет оффчейн интеграций.

Такие продукты, как Copilot, призваны «повысить эффективность разработки в 10 раз», а приложения уровня 1 и DeFi уже запустили платформы разработки с поддержкой искусственного интеллекта в сотрудничестве с крупными компаниями, такими как Microsoft. Такие компании, как Cub3.ai и Test Machine, разрабатывают интеграции искусственного интеллекта для аудита смарт-контрактов и мониторинга угроз в режиме реального времени для повышения безопасности в сети. Чат-боты LLM обучаются работе с ончейн-данными, документацией по протоколам и приложениями, чтобы предоставить пользователям расширенную доступность и пользовательский опыт.

Вызовом для более сложных интеграций, которые действительно используют базовую технологию криптовалют, остаётся доказать, что внедрение решений искусственного интеллекта в цепочку технически и экономически целесообразно. Развитие децентрализованных вычислений, zkML и искусственных интеллектуальных агентов указывает на многообещающие вертикали, заложив основу для глубоко взаимосвязанного будущего криптовалют и искусственного интеллекта.

Отказ от ответственности:

  1. Эта статья перепечатана с технологический поток, Все авторские права принадлежат оригинальному автору [Лукас Тчеян]. Если есть возражения по поводу этого перепечатывания, пожалуйста, свяжитесь с Gate Learnкоманда, и они незамедлительно справятся с этим.
  2. Ответственность за отказ: Взгляды и мнения, выраженные в этой статье, являются исключительно мнением автора и не являются инвестиционной консультацией.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.

Galaxy Digital: Исследование пересечения Криптовалюты и ИИ

Средний2/28/2024, 4:55:32 AM
Эта статья исследует пересечение криптовалюты и искусственного интеллекта, выделяя появление публичных блокчейнов как одного из наиболее глубоких достижений в истории компьютерных наук. Она обсуждает, как развитие ИИ уже оказывает значительное влияние на наш мир.

Введение

Появление публичных блокчейнов является глубоким прорывом в истории компьютерных наук, в то время как развитие искусственного интеллекта имеет значительное влияние на наш мир. Технология блокчейн предлагает новые шаблоны для расчета транзакций, хранения данных и проектирования систем, в то время как искусственный интеллект представляет собой революцию в вычислениях, анализе и доставке контента. Инновации в этих отраслях развязывают новые сценарии использования, которые могут ускорить принятие обеих сфер в ближайшие годы. В данном отчете рассматривается непрерывная интеграция криптовалюты и искусственного интеллекта, с акцентом на новые сценарии использования, направленные на сокрытие разрыва между ними и использование их преимуществ. В частности, рассматриваются проекты, разрабатывающие децентрализованные протоколы вычислений, инфраструктуру машинного обучения с нулевым разглашением (zkML) и искусственный интеллект.

Криптовалюта предлагает разрешение, доверительность и компонентный уровень расчетов для ИИ, открывая такие сценарии использования, как более простой доступ к аппаратному обеспечению через децентрализованные вычислительные системы, создание ИИ-агентов, способных выполнять сложные задачи, требующие обмена ценностями, и разработка решений для идентификации и происхождения, чтобы противостоять атакам Сибилл и глубоким подделкам. ИИ приносит в криптовалюту многие из тех же преимуществ, которые видны в Вебе 2.0, включая улучшенные пользовательские и разработческие возможности благодаря большим языковым моделям, таким как ChatGPT и Copilot, а также значительно улучшенные функциональные возможности и потенциал автоматизации для смарт-контрактов. Блокчейн обеспечивает прозрачную, богатую данными среду, необходимую для ИИ, хотя ограниченная вычислительная мощность блокчейна является основным барьером для прямой интеграции моделей ИИ.

Эксперименты и последующее принятие в области пересечения криптовалюты и искусственного интеллекта обусловлены теми же силами, которые стимулируют наиболее многообещающие случаи использования криптовалюты: доступ к слою координации без разрешения и доверия, облегчающему лучший перевод стоимости. Учитывая огромный потенциал, заинтересованным сторонам в этой области необходимо понимать основные способы взаимодействия этих технологий.

Ключевые моменты:

    • В ближайшем будущем (от 6 месяцев до 1 года) интеграция криптовалюты и искусственного интеллекта будет доминировать приложениями искусственного интеллекта, которые повышают эффективность разработчиков, аудитабельность и безопасность смарт-контрактов, а также доступность для пользователей. Эти интеграции не являются специфичными для криптовалюты, но улучшают опыт для разработчиков и пользователей on-chain.
    • Поскольку высокопроизводительные графические процессоры остаются дефицитными, децентрализованные вычислительные продукты внедряют специализированные продукты с ИИ для увеличения принятия.
    • Пользовательский опыт и регулирующие препятствия остаются преградами на пути привлечения клиентов для децентрализованных вычислений. Однако недавние события в OpenAI и текущие регуляторные расследования в США подчеркивают ценностное предложение разрешенных без разрешения, устойчивых к цензуре и децентрализованных сетей искусственного интеллекта.
    • Интеграция искусственного интеллекта на цепи, особенно смарт-контракты, способные использовать модели искусственного интеллекта, требует улучшения технологии zkML и других методов для верификации вычислений вне цепи. Недостаток комплексных инструментов, талантов разработчиков и высокие затраты являются препятствиями для принятия.
    • Агенты ИИ хорошо подходят для криптовалют, где пользователи (или сами агенты) могут создавать кошельки для транзакций с другими сервисами, агентами или частными лицами — возможность, невозможная с традиционными финансовыми рельсами. Для более широкого внедрения необходима дополнительная интеграция с некриптографическими продуктами.

Условия

Искусственный интеллект - это использование вычислений и машин для имитации рассуждений и способностей человека в решении проблем.

Нейронные сети - это метод обучения моделей искусственного интеллекта. Они пропускают входные данные через дискретные алгоритмические слои, улучшая их до получения желаемого результата. Нейронные сети состоят из уравнений с весами, которые можно настраивать для изменения выходных данных. Для обучения может потребоваться обширная база данных и вычислительные мощности, чтобы гарантировать точность выходных данных. Это один из наиболее распространенных способов разработки моделей искусственного интеллекта (например, ChatGPT основан на процессе нейронной сети на основе трансформеров).

Обучение - это процесс разработки нейронных сетей и других моделей искусственного интеллекта. Для правильной интерпретации входных данных и получения точных результатов требуется значительное количество данных для обучения моделей. Во время обучения веса уравнения модели непрерывно модифицируются до получения удовлетворительных результатов. Обучение может быть очень затратным. Например, ChatGPT использует десятки тысяч собственных графических процессоров для обработки данных. Команды с ограниченными ресурсами часто полагаются на специализированных поставщиков вычислительных ресурсов, таких как Amazon Web Services, Azure и поставщики облачных вычислений Google.

Вывод - это фактическое использование моделей искусственного интеллекта для получения выводов или результатов (например, использование ChatGPT для создания контура статьи о пересечении криптовалюты и искусственного интеллекта). Вывод используется на протяжении всего процесса обучения и в конечном продукте. Из-за вычислительных затрат, даже после завершения обучения, их операционные издержки могут быть высокими, хотя их вычислительная интенсивность ниже, чем у обучения.

Доказательства с нулевым разглашением (ZKP) позволяют проверять утверждения без раскрытия лежащей в их основе информации. Это полезно в криптовалюте по двум основным причинам: 1) Конфиденциальность и 2) Масштабирование. Для обеспечения конфиденциальности он позволяет пользователям совершать транзакции, не раскрывая конфиденциальную информацию (например, сколько ETH находится в кошельке). Что касается масштабирования, это позволяет быстрее подтверждать вычисления вне сети, чем повторное выполнение вычислений. Это позволяет блокчейнам и приложениям дешево выполнять вычисления вне блокчейна, а затем проверять их в блокчейне. Для получения дополнительной информации о нулевом разглашении и его роли в виртуальных машинах Ethereum см. отчет Кристин Ким (Christine Kim) о zkEVM: будущее масштабируемости Ethereum.

Карта рынка искусственного интеллекта/криптовалюты

Проекты, интегрирующие искусственный интеллект и криптовалюту, все еще создают основную инфраструктуру, необходимую для поддержки масштабных он-чейн взаимодействий с ИИ.

Децентрализованные рынки вычислений начинают появляться для предоставления огромного физического оборудования, необходимого для обучения и вывода моделей искусственного интеллекта, в первую очередь в форме графических процессоров (GPU). Эти двусторонние рынки соединяют тех, кто сдаёт в аренду и тех, кто хочет арендовать вычисления, облегчая передачу стоимости и верификацию вычислений. В рамках децентрализованных вычислений начинают появляться несколько подкатегорий, предлагающих дополнительные функциональности. Помимо двусторонних рынков, в этом отчёте также рассматриваются поставщики обучения машинного обучения, предлагающие проверяемое обучение и настройку выводов, а также проекты, посвящённые связыванию вычислений и генерации моделей для обеспечения работы искусственного интеллекта, часто называемые интеллектуальными инцентивными сетями.

zkML - развивающаяся область для проектов, цель которых - предоставить верифицируемые выходные модели on-chain экономически целесообразным и своевременным образом. Эти проекты в основном позволяют приложениям обрабатывать тяжелые вычислительные запросы off-chain, а затем публиковать верифицируемые выходные данные on-chain, доказывая, что off-chain нагрузка была завершена и точна. zkML в настоящее время является как дорогостоящим, так и затратным по времени, но все чаще используется в качестве решения. Это подтверждается растущим числом интеграций между поставщиками zkML и DeFi/игровыми приложениями, желающими использовать модели искусственного интеллекта.

Обилие вычислительных мощностей и возможность проверки вычислений на цепочке открывают дверь для агентов искусственного интеллекта на цепочке. Агенты - это обученные модели, способные выполнять запросы от имени пользователей. Агенты предоставляют возможность значительно улучшить опыт работы на цепочке, позволяя пользователям выполнять сложные транзакции просто общаясь с чат-ботом. Однако на данный момент проекты агентов все еще сосредоточены на разработке инфраструктуры и инструментов для удобного и быстрого развертывания.

Децентрализованные вычисления

Обзор

Искусственный интеллект требует обширных вычислений для обучения моделей и выполнения выводов. За последнее десятилетие, по мере усложнения моделей, спрос на вычисления вырос экспоненциально. Например, OpenAI отметила, что с 2012 по 2018 год вычислительный спрос на его модели удваивался каждые два года, переходя к удвоению каждые три с половиной месяца. Это привело к всплеску спроса на графические процессоры, с некоторыми криптовалютными майнерами даже переориентирующими свои графические процессоры для предоставления облачных вычислительных услуг. По мере усиления конкуренции за доступ к вычислениям и роста издержек, некоторые проекты используют криптографическую технологию для предоставления децентрализованных вычислительных решений. Они предоставляют вычисления по требованию по конкурентоспособным ценам, позволяя командам обучать и запускать модели по доступным ценам. В некоторых случаях компромиссы могут касаться производительности и безопасности.

Спрос на современные видеокарты (например, те, которые производит Nvidia) значителен. В сентябре Tether приобрел долю в немецком биткоин-майнере Northern Data, предположительно потратив $420 миллионов на приобретение 10 000 H100 GPU (одни из самых продвинутых видеокарт для обучения искусственного интеллекта). Время ожидания для приобретения высокотехнологичного оборудования может составлять как минимум шесть месяцев, если не больше во многих случаях. Более того, компаниям часто приходится заключать долгосрочные контракты для обеспечения вычислительных объемов, которые они даже не используют. Это может привести к ситуациям, когда вычислительные ресурсы доступны, но не доступны на рынке. Децентрализованные вычислительные системы помогают решить эти рыночные неэффективности путем создания вторичного рынка, где владельцы вычислений могут немедленно сдавать в субаренду свою избыточную мощность по уведомлению, тем самым освобождая новые ресурсы.

Помимо конкурентоспособной ценовой политики и доступности, ключевым преимуществом децентрализованных вычислений является устойчивость к цензуре. Разработка передовых технологий искусственного интеллекта все больше контролируется крупными технологическими компаниями с непревзойденными вычислительными и доступом к данным возможностями. Первая ключевая тема, выделенная в ежегодном отчете 2023 года по индексу искусственного интеллекта, - это растущее превосходство промышленности над академией в разработке моделей искусственного интеллекта, что концентрирует контроль в руках нескольких технологических лидеров. Это вызывает беспокойство относительно их потенциала оказывать значительное влияние на установление норм и ценностей, лежащих в основе моделей искусственного интеллекта, особенно после того, как эти технологические компании выступают за регулирование с целью ограничения неуправляемого развития искусственного интеллекта.

Вертикали в децентрализованных вычислениях

В последние годы появилось несколько моделей децентрализованных вычислений, каждая со своим собственным фокусом и компромиссами.

Обобщенные вычисления

Широко говоря, проекты, такие как Akash, io.net, iExec и Cudos, представляют собой приложения децентрализованных вычислений, предлагающие не только решения в области данных и общего вычислительного обслуживания, но и специализированные вычисления для обучения и вывода искусственного интеллекта. Akash выделяется как единственная полностью открытая платформа "супероблака", использующая Cosmos SDK для своей сети доказательства доли. AKT, собственный токен Akash, служит методом оплаты для обеспечения безопасности сети и стимулирования участия. Запущенный в 2020 году, главная сеть Akash изначально сосредоточилась на рынке облачных вычислений без разрешения, предлагая услуги хранения и аренды CPU. В июне 2023 года Akash представил тестовую сеть, сосредоточенную на GPU, а затем в сентябре запустил основную сеть с упором на GPU, позволяя арендовать GPU для обучения и вывода искусственного интеллекта.

Экосистема Akash состоит из двух основных участников: арендаторов, которые ищут вычислительные ресурсы, и поставщиков, поставщиков вычислительных ресурсов. Процесс обратного аукциона облегчает сопоставление арендаторов и поставщиков, где арендаторы размещают свои требования к вычислениям, включая предпочтительные местоположения серверов или типы оборудования и свой бюджет. Поставщики затем делают ставки, и задание получает тот, кто сделал самую низкую ставку. Валидаторы поддерживают целостность сети, с текущим пределом в 100 валидаторов, который планируется увеличить в будущем. Участие в качестве валидатора открыто тем, кто ставит больше AKT, чем наименее обеспеченный текущий валидатор. Владельцы AKT могут делегировать свои токены валидаторам, при этом комиссии за транзакции и награды за блоки распределяются в AKT. Более того, за каждый лизинг сеть Akash зарабатывает «комиссию», решаемую сообществом, которая распределяется среди владельцев AKT.

Вторичный рынок

Вторичный рынок децентрализованных вычислений нацелен на устранение неэффективностей на существующем рынке вычислений, где ограничения предложения приводят к тому, что компании запасают ресурсы сверх своих потребностей, а долгосрочные контракты с облачными провайдерами еще больше ограничивают предложение. Платформы децентрализованных вычислений разблокируют новое предложение, позволяя любому с потребностями в вычислениях стать провайдером.

Будет ли всплеск спроса на GPU для обучения искусственного интеллекта приводить к устойчивому использованию сети на Akash, пока неясно. Исторически Akash предлагал услуги рынка на основе ЦП с 70-80% скидкой по сравнению с централизованными альтернативами, однако эта стратегия ценообразования не существенно способствовала принятию. Активность сети, измеряемая по активным арендам, стабилизировалась, с средним уровнем использования вычислительных мощностей в 33%, памяти в 16% и хранилища в 13% к концу второго квартала 2023 года, внушительно для он-чейн принятия, но свидетельствующий о том, что предложение все еще превышает спрос. Полгода с момента запуска сети GPU еще слишком рано для окончательной оценки долгосрочного принятия, хотя первые признаки показывают среднюю загрузку GPU в 44%, вызванную в основном спросом на высококачественные GPU, такие как A100, более 90% из которых были сданы в аренду.

Ежедневные расходы Акаша почти удвоились с момента внедрения графических процессоров, что частично объясняется увеличением использования других служб, особенно процессоров, но главным образом из-за нового использования GPU.

Цены конкурентоспособны или в некоторых случаях дороже, чем у централизованных аналогов, таких как Lambda Cloud и Vast.ai. Высокий спрос на топовые ГПУ, такие как H100 и A100, означает, что большинство владельцев такого оборудования не заинтересованы в его размещении на конкурентоспособном рынке.

Несмотря на первоначальную прибыль, барьеры для внедрения остаются. Децентрализованные вычислительные сети должны предпринять дальнейшие шаги для создания спроса и предложения, а команды изучают, как лучше всего привлечь новых пользователей. Например, в начале 2024 года Akash приняла Предложение 240, увеличивающее эмиссию AKT для поставщиков графических процессоров, чтобы стимулировать увеличение предложения, особенно для высокопроизводительных графических процессоров. Команды также работают над экспериментальными моделями, чтобы продемонстрировать потенциальным пользователям реальные возможности своих сетей. Akash обучает свои базовые модели и запустила чат-ботов и продукты для генерации изображений, использующие графические процессоры Akash. Кроме того, io.net разработала модель стабильной диффузии и запускает новые сетевые функции для лучшей эмуляции производительности и масштабирования сети.

Децентрализованное обучение машинного обучения

Помимо общих вычислительных платформ, которые могут удовлетворить потребности искусственного интеллекта, также появляется группа профессиональных поставщиков графических процессоров для искусственного интеллекта, сосредоточенных на обучении моделей машинного обучения. Например, Gensyn «координирует мощность и аппаратное обеспечение для создания коллективного интеллекта», придерживаясь философии, что «если кто-то хочет обучить что-то и кто-то готов это обучить, то это обучение должно происходить».

Этот протокол включает в себя четыре основных участника: подающие, решающие, валидаторы и информаторы. Податели подают задачи с запросами на обучение в сеть. Эти задачи включают цели обучения, модели для обучения и обучающие данные. В рамках процесса подачи подающие должны предварительно оплатить предполагаемую вычислительную стоимость, необходимую решающим.

После представления задачи исполнителям, которые фактически выполняют тренировку модели, назначаются задания. Затем исполнители отправляют выполненные задачи валидаторам, которые отвечают за проверку тренировки, чтобы убедиться, что она была правильно выполнена. Свистуны отвечают за обеспечение честности валидаторов. Чтобы мотивировать свистунов участвовать в сети, Gensyn планирует регулярно предлагать умышленно неправильные доказательства, вознаграждая свистунов, которые их выявляют.

Помимо предоставления вычислений для рабочих нагрузок, связанных с искусственным интеллектом, ключевым аспектом Gensyn является его система верификации, которая все еще находится в стадии разработки. Верификация необходима для обеспечения того, что внешние вычисления, предоставленные поставщиками GPU, выполняются правильно (т. е. гарантируется, что модели пользователей обучаются так, как они этого хотят). Gensyn решает эту проблему с помощью уникального подхода, используя новые методы верификации, называемые «вероятностными доказательствами обучения, протоколами точной графовой базы и играми на основе инцентивов Truebit». Это оптимистичная модель решения, которая позволяет валидаторам подтверждать, что решатели правильно запустили модель, не требуя полной повторной обработки модели самостоятельно, процесс, который является дорогостоящим и неэффективным.

Помимо инновационного метода верификации, Gensyn также утверждает, что он экономичен по сравнению с централизованными альтернативами и конкурентами в области криптовалюты - предлагая цены на обучение ML до 80% дешевле, чем AWS, в то время как он превосходит по результатам тестов подобные проекты, такие как Truebit.

Смогут ли эти первоначальные результаты быть воспроизведены в больших масштабах в децентрализованных сетях, еще предстоит увидеть. Gensyn надеется использовать избыточные вычислительные мощности таких провайдеров, как небольшие центры обработки данных, розничные пользователи и, в конечном итоге, небольшие мобильные устройства, такие как смартфоны. Однако, как признает сама команда Gensyn, использование разнородных вычислительных провайдеров создает некоторые новые проблемы.

Для централизованных поставщиков, таких как Google Cloud и Coreweave, вычислительные затраты дорогие, но коммуникация между вычислениями (пропускная способность и задержка) дешевая. Эти системы разработаны для облегчения коммуникации между аппаратным обеспечением как можно быстрее. Gensyn нарушает эту структуру, снижая затраты на вычисления, позволяя любому человеку в мире предложить графические процессоры, но в то же время увеличивая затраты на коммуникацию, так как сеть теперь должна координировать вычислительные задания на удаленных гетерогенных аппаратных средствах. Gensyn еще не запущен, но он представляет собой доказательство концепции, которая может быть достигнута при построении децентрализованного протокола обучения машинного обучения.

Децентрализованный общий интеллект

Децентрализованные вычислительные платформы также предлагают возможность разработки методов создания искусственного интеллекта. Bittensor - это децентрализованный вычислительный протокол, созданный на основе Substrate, который пытается ответить на вопрос: «Как мы можем превратить искусственный интеллект в совместный метод?» Bittensor нацелен на достижение децентрализации и комодификации генерации искусственного интеллекта. Запущенный в 2021 году, он надеется использовать мощь совместных моделей машинного обучения для непрерывного итеративного улучшения и создания лучшего искусственного интеллекта.

Bittensor черпает вдохновение из Bitcoin, с его собственной валютой TAO, имеющей предельный предел в 21 миллион и цикл половинения каждые четыре года (первое половинение запланировано на 2025 год). В отличие от использования Proof of Work для генерации правильных случайных чисел и заработка блоковых наград, Bittensor полагается на "Proof of Intelligence", требуя от майнеров запускать модели для генерации выводов в ответ на запросы вывода.

Способствование интеллекту

Первоначально Bittensor полагался на модель Mix of Experts (MoE) для получения выходных данных. При отправке запроса на вывод модель MoE не полагается на обобщенную модель, а перенаправляет запрос наиболее точной модели для данного типа входных данных. Представьте себе, что вы строите дом, где вы нанимаете различных специалистов для различных аспектов строительного процесса (например, архитекторов, инженеров, маляров, строителей и т. д.). Министерство энергетики применяет это к моделям машинного обучения, пытаясь использовать выходные данные различных моделей на основе входных данных. Как объяснила основатель Bittensor Ала Шаабана, это похоже на «разговор с комнатой, полной умных людей, чтобы получить лучший ответ, а не разговор с одним человеком». Из-за проблем с обеспечением правильной маршрутизации, синхронизации сообщений с правильной моделью и стимулов этот метод был отложен до дальнейшего развития проекта.

В сети Bittensor есть два основных участника: валидаторы и майнеры. Валидаторы отправляют майнерам запросы на вывод, просматривают их выходные данные и ранжируют их в зависимости от качества ответов. Чтобы гарантировать надежность своих рейтингов, валидаторам присваивается оценка «vtrust» в зависимости от того, насколько их рейтинги согласуются с другими валидаторами. Чем выше показатель vtrust валидатора, тем больше эмиссии TAO он получает. Это делается для того, чтобы побудить валидаторов со временем достичь консенсуса по ранжированию моделей, поскольку чем больше валидаторов согласны с рейтингами, тем выше их индивидуальные баллы vtrust.

Майнеры, также известные как серверы, являются участниками сети, которые запускают фактические модели машинного обучения. Они соревнуются в предоставлении наиболее точных результатов для запросов валидаторов, и чем более точные результаты, тем больше TAO-эмиссий они зарабатывают. Майнеры вольны создавать эти результаты так, как им угодно. Например, в будущем совершенно возможно, что майнеры Bittensor будут иметь ранее обученные модели на Gensyn и использовать их для заработка TAO-эмиссий.

Сегодня большинство взаимодействий происходит непосредственно между валидаторами и майнерами. Валидаторы предоставляют входные данные майнерам и запрашивают результаты (т.е. обучение модели). После того как валидаторы запрашивают майнеров в сети и получают их ответы, они ранжируют майнеров и представляют свои рейтинги в сети.

Взаимодействие между валидаторами (полагающимися на PoS) и майнерами (полагающимися на Model Proof, форму PoW) известно как согласование Yuma. Целью является стимулирование майнеров для производства лучших результатов для заработка эмиссий TAO и стимулирование валидаторов для точного ранжирования результатов майнеров, заработка более высоких баллов vtrust и увеличения своих наград TAO, тем самым формируя механизм согласования для сети.

Подсети и Приложения

Взаимодействия на Bittensor в основном включают в себя представление запросов валидаторами майнерам и оценку их результатов. Однако по мере улучшения качества участвующих майнеров и общего интеллекта сети Bittensor создает слой приложений поверх своего существующего стека, чтобы разработчики могли создавать приложения, которые запрашивают сеть Bittensor.

В октябре 2023 года Bittensor представила подсети через обновление Revolution, сделав значительный шаг к достижению этой цели. Подсети — это отдельные сети на Bittensor, которые стимулируют определенное поведение. Революция открыла сеть для всех, кто заинтересован в создании подсетей. В течение нескольких месяцев после запуска было запущено более 32 подсетей, включая подсети для текстовых подсказок, сбора данных, создания изображений и хранения. По мере того, как подсети созревают и становятся готовыми к продукту, создатели подсетей также будут создавать интеграции приложений, что позволит командам создавать приложения, которые запрашивают определенные подсети. Некоторые приложения, такие как чат-боты, генераторы изображений, боты для ответов в Twitter и рынки предсказаний, существуют, но нет никаких формальных стимулов, кроме финансирования со стороны Bittensor Foundation, для валидаторов, чтобы они принимали и пересылали эти запросы.

Для более ясного объяснения, вот пример того, как Bittensor может работать, когда приложения интегрируются в сеть.

Подсети зарабатывают TAO на основе производительности, оцениваемой корневой сетью. Корневая сеть, расположенная над всеми подсетями, фактически действует как специальная подсеть и управляется 64 крупнейшими валидаторами подсетей по доле. Валидаторы корневой сети ранжируют подсети на основе их производительности и периодически выделяют эмиссию TAO подсетям. Таким образом, отдельные подсети действуют как майнеры для корневой сети.

Видение Биттензора

Bittensor по-прежнему испытывает ростовые боли, расширяя функционал протокола для стимулирования генерации интеллекта на нескольких субсетях. Майнеры постоянно разрабатывают новые способы атаки сети для получения большего вознаграждения TAO, например, слегка изменяя вывод высокооцененных выводов, запущенных их моделями, а затем представляя несколько вариантов. Предложения по управлению, затрагивающие всю сеть, могут быть представлены и реализованы только Триумвиратом, полностью состоящим из заинтересованных сторон Фонда Opentensor (примечательно, что предложения требуют одобрения Сената Bittensor, состоящего из валидаторов Bittensor, перед реализацией). Токеномика проекта модифицируется для усиления стимулов к перекрестному использованию TAO. Проект также быстро завоевал известность своим уникальным подходом, при этом генеральный директор одного из самых популярных веб-сайтов по ИИ, HuggingFace, заявил, что Bittensor должен добавить свои ресурсы на сайт.

В недавней статье под названием «Парадигма Bittensor», опубликованной основными разработчиками, команда изложила видение Bittensor о том, что в конечном итоге он станет «агностическим к тому, что измеряется». Теоретически это может позволить Bittensor разрабатывать подсети, которые поощряют любой тип поведения, поддерживаемый TAO. Все еще существуют значительные практические ограничения — прежде всего, доказательство того, что эти сети могут масштабироваться для обработки такого разнообразного спектра процессов и что потенциальные стимулы способствуют прогрессу за пределами централизованных продуктов.

Построение децентрализованного стека вычислений для моделей искусственного интеллекта

Выше приведен развернутый обзор различных типов протоколов децентрализованного искусственного интеллекта (ИИ), находящихся в стадии разработки. На ранних этапах развития и принятия они залагивают основу для экосистемы, которая в конечном итоге может облегчить создание «строительных блоков ИИ», аналогичную концепции «денежных Лего» в DeFi. Композиционность безразрешимых блокчейнов позволяет возможность строить каждый протокол на основе другого, создавая более комплексную децентрализованную экосистему искусственного интеллекта.
Например, вот как Akash, Gensyn и Bittensor могут взаимодействовать, чтобы отвечать на запросы на вывод.

Важно понимать, что это всего лишь один пример того, что может произойти в будущем, а не отражение текущей экосистемы, существующих партнерств или потенциальных результатов. Ограничения интероперабельности и другие описанные ниже соображения значительно ограничивают возможности интеграции сегодня. Более того, фрагментация ликвидности и необходимость использовать несколько токенов могут нанести вред пользовательскому опыту, что отмечено основателями Akash и Bittensor.

Другие децентрализованные продукты

Помимо вычислений, в области криптовалютного пространства было представлено несколько других децентрализованных инфраструктурных сервисов для поддержки развивающейся экосистемы искусственного интеллекта. Перечислить все они выходит за рамки данного отчета, но некоторые интересные и наглядные примеры включают:

  • Ocean: Децентрализованный рынок данных, где пользователи могут создавать NFT-токены, представляющие их данные, и покупать их с помощью токенов данных. Пользователи могут монетизировать свои данные и иметь большую суверенитет над ними, предоставляя командам искусственного интеллекта доступ к данным, необходимым для разработки и обучения моделей.
  • Grass: Децентрализованный рынок полосы пропускания, где пользователи могут продавать свою избыточную полосу пропускания компаниям по искусственному интеллекту, которые используют ее для сбора данных из интернета. Построенный на сети Wynd, это позволяет отдельным лицам монетизировать свою полосу пропускания и предлагает покупателям полосы пропускания более разнообразную перспективу на то, что отдельные пользователи видят в сети (поскольку индивидуальный доступ в интернет часто настраивается на основе их IP-адреса).
  • HiveMapper: Создает децентрализованный картографический продукт, включающий информацию, собранную от ежедневных водителей. HiveMapper полагается на искусственный интеллект для интерпретации изображений, собранных с видеорегистраторов пользователей, и вознаграждает пользователей токенами за помощь в настройке моделей искусственного интеллекта через обратную связь усиленного человеческого обучения (RHLF).

В целом, эти примеры указывают на практически безграничные возможности для изучения децентрализованных рыночных моделей, поддерживающих модели искусственного интеллекта или периферийную инфраструктуру, необходимую для их разработки. В настоящее время большинство этих проектов находятся на стадии концепции и требуют дальнейших исследований и разработок, чтобы доказать, что они могут функционировать в масштабе, необходимом для предоставления полного спектра услуг по искусственному интеллекту.

Прогноз

Продукты децентрализованных вычислений все еще находятся на ранних этапах развития. Они только начали запускать передовые вычислительные возможности, способные обучать самые мощные модели искусственного интеллекта в производстве. Для того чтобы завоевать значительную долю рынка, им необходимо продемонстрировать фактические преимущества по сравнению с централизованными альтернативами. Потенциальные триггеры для более широкого принятия включают в себя:

  • Спрос/предложение графического процессора. Нехватка графических процессоров в сочетании с быстро растущими требованиями к вычислительным ресурсам приводит к гонке вооружений графических процессоров. Из-за ограничений графического процессора OpenAI иногда ограничивала доступ к своей платформе. Такие платформы, как Akash и Gensyn, могут предложить конкурентоспособные по цене альтернативы для команд, нуждающихся в высокопроизводительных вычислениях. Следующие 6-12 месяцев представляют собой уникальную возможность для провайдеров децентрализованных вычислений привлечь новых пользователей, которые вынуждены рассматривать децентрализованные продукты из-за отсутствия более широкого доступа к рынку. Кроме того, благодаря постоянно улучшающейся производительности моделей с открытым исходным кодом, таких как LLaMA2 от Meta, пользователи больше не сталкиваются с теми же барьерами при развертывании эффективных тонко настроенных моделей, что делает вычислительные ресурсы основным узким местом. Однако само по себе существование платформ не гарантирует достаточного предложения компьютеров и соответствующего потребительского спроса. Закупка высокопроизводительных графических процессоров остается сложной задачей, а стоимость не всегда является основным мотивирующим фактором спроса. Эти платформы столкнутся с проблемами в демонстрации реальных преимуществ использования децентрализованных вычислительных возможностей (будь то из-за стоимости, устойчивости к цензуре, времени безотказной работы и отказоустойчивости или доступности) для накопления нестабильных пользователей. Они должны действовать быстро, поскольку инвестиции в инфраструктуру GPU и строительство идут с поразительной скоростью.
  • Регулирование. Регулирование остается препятствием для движения децентрализованных вычислений. В краткосрочной перспективе отсутствие четкого регулирования означает, что как поставщики, так и пользователи сталкиваются с потенциальными рисками при использовании этих услуг. Что делать, если поставщики предлагают вычисления или покупатели по незнанию покупают вычисления у организаций, находящихся под санкциями? Пользователи могут сомневаться в использовании децентрализованных платформ, которым не хватает централизованного контроля и надзора. Протоколы пытаются смягчить эти проблемы, встраивая средства контроля в свои платформы или добавляя фильтры для доступа только к известным поставщикам вычислительных услуг (т. е. тем, кто предоставил информацию «Знай своего клиента» (KYC)), но для защиты конфиденциальности при обеспечении соответствия требованиям необходим более надежный подход. В ближайшей перспективе мы можем стать свидетелями появления платформ KYC и комплаенса, которые ограничивают доступ к своим протоколам для решения этих проблем. Более того, дискуссии вокруг возможной новой нормативно-правовой базы в США (примером чего является издание Указа о содействии безопасному, надежному и заслуживающему доверия развитию и использованию искусственного интеллекта) подчеркивают потенциал регулирующих мер по дальнейшему ограничению доступа к GPU.
  • Цензура. Регулирование — это палка о двух концах, и децентрализованные вычислительные продукты могут выиграть от действий, ограничивающих доступ ИИ. Основатель OpenAI Сэм Альтман (Sam Altman) заявил в Конгрессе, что регулирующие органы должны выдавать лицензии на разработку ИИ. Дискуссии о регулировании ИИ только начинаются, но любые попытки ограничить доступ или подвергнуть цензуре возможности ИИ могут ускорить внедрение децентрализованных платформ, которые не сталкиваются с такими барьерами. Смена руководства (или ее отсутствие) в OpenAI в ноябре еще раз указывает на то, что доверять полномочия по принятию решений в самых мощных существующих моделях ИИ немногим рискованно. Более того, все модели ИИ неизбежно отражают предубеждения тех, кто их создает, намеренно или нет. Один из способов устранить эти предубеждения — сделать модели как можно более открытыми для тонкой настройки и обучения, гарантируя, что любой человек в любом месте может получить доступ к множеству моделей с различными предубеждениями.
  • Конфиденциальность данных. Децентрализованные вычисления могут быть более привлекательными, чем централизованные альтернативы, когда они интегрируются с внешними решениями по данным и конфиденциальности, которые предлагают пользователям суверенитет данных. Samsung стала жертвой, когда поняла, что инженеры использовали ChatGPT для проектирования микросхем и утекали чувствительную информацию в ChatGPT. Phala Network и iExec утверждают, что предоставляют пользователям безопасные ограждения SGX для защиты пользовательских данных, и продолжающиеся исследования полностью гомоморфного шифрования могут дальше разблокировать конфиденциальные децентрализованные вычисления. Поскольку искусственный интеллект все больше интегрируется в нашу жизнь, пользователи будут все больше ценить возможность запускать модели в приложениях с защитой конфиденциальности. Пользователям также необходима поддержка для служб композиции данных, чтобы они могли без проблем переносить данные из одной модели в другую.
  • Пользовательский опыт (UX). Пользовательский опыт остается значительным барьером для более широкого принятия всех видов криптовалютных приложений и инфраструктуры. Это не отличается для децентрализованных вычислительных продуктов и усугубляется в некоторых случаях из-за необходимости понимания разработчиками как криптовалют, так и искусственного интеллекта. Улучшения должны начинаться с основ, таких как взаимодействие с блокчейном и извлечение информации, чтобы обеспечить такое же качественное исполнение, как у текущих лидеров рынка. Это очевидно, учитывая сложность многих работоспособных децентрализованных вычислительных протоколов, предлагающих более дешевые продукты, в получении регулярного использования.

Смарт-контракты и zkML

Смарт-контракты являются угловым камнем любой экосистемы блокчейна. Они автоматически выполняются в соответствии с определенным набором условий, снижая или устраняя необходимость в доверенных сторонах, тем самым обеспечивая создание сложных децентрализованных приложений, таких как те, что присутствуют в DeFi. Однако функциональность смарт-контрактов до сих пор ограничена, поскольку они работают на основе заранее установленных параметров, которые должны быть обновлены.

Например, смарт-контракт, развернутый для протокола кредитования/заимствования, который содержит спецификации о том, когда позиции должны быть ликвидированы на основе определенного соотношения кредита к стоимости. Несмотря на то, что эти смарт-контракты полезны в статических средах, они нуждаются в постоянном обновлении, чтобы адаптироваться к изменениям толерантности к риску в динамических ситуациях, что создает проблемы для контрактов, которые не управляются централизованными процессами. Например, DAO, полагающиеся на децентрализованные процессы управления, могут недостаточно быстро реагировать на системные риски.

Интеграция искусственного интеллекта (т. е. моделей машинного обучения) в смарт-контракты является потенциальным способом улучшения функциональности, безопасности и эффективности, а также повышения общего пользовательского опыта. Однако эти интеграции также вносят дополнительные риски, поскольку невозможно гарантировать, что модели, лежащие в основе этих смарт-контрактов, не будут использованы или не смогут интерпретировать длиннохвостые ситуации (учитывая дефицит входных данных, длиннохвостые ситуации сложно обучить моделям).

Машинное обучение с нулевым разглашением информации (zkML)

Машинное обучение требует значительных вычислений для запуска сложных моделей, что делает непрактичным непосредственный запуск моделей ИИ в смарт-контрактах из-за высоких затрат. Например, протокол DeFi, предлагающий модели оптимизации доходности, обнаружит трудности в запуске этих моделей on-chain без возникновения запретительных газовых сборов. Одно из решений - увеличить вычислительные возможности базовой блокчейна. Однако это также повышает требования к валидаторам цепочки, потенциально угрожая децентрализации. Вместо этого некоторые проекты исследуют использование zkML для проверки выводов способом, не требующим интенсивных вычислений on-chain в доверительном порядке.

Один из распространенных примеров, иллюстрирующих полезность zkML, - это когда пользователи нуждаются в запуске данных через модели и проверке того, что их коллеги действительно запустили правильную модель. Разработчики, использующие децентрализованные вычислительные провайдеры для обучения своих моделей, могут беспокоиться о том, что эти провайдеры снизят затраты, используя более дешевые модели, которые производят результаты с едва заметными различиями. zkML позволяет провайдерам вычислений запускать данные через свои модели, а затем генерировать доказательства, которые могут быть проверены on-chain, доказывая, что выходы модели для заданных входных данных являются правильными. В этом сценарии провайдер модели получает дополнительное преимущество в том, что может предложить свою модель, не раскрывая основные веса, которые породили выходы.

Также возможен и обратный вариант. Если пользователи хотят запускать модели на своих данных, но не хотят предоставлять доступ к своим данным проектам моделей из-за проблем с конфиденциальностью (например, при медицинских проверках или коммерческой информации), они могут запускать модель на своих данных, не раскрывая данных, а затем подтверждать через доказательства, что они запустили правильную модель. Эти возможности значительно расширяют пространство проектирования для интеграции ИИ и функций смарт-контрактов, решая сложные вычислительные ограничения.

Инфраструктура и инструменты

Учитывая раннее состояние области zkML, развитие в основном сосредоточено на построении инфраструктуры и инструментов, необходимых командам, чтобы преобразовать свои модели и выходы в доказательства, подтверждаемые на цепочке. Эти продукты абстрагируют нулевые аспекты знаний насколько это возможно.

EZKL и Giza — это два проекта, создающих такие инструменты, предоставляя проверяемые доказательства выполнения модели машинного обучения. Оба помогают командам создавать модели машинного обучения, чтобы гарантировать, что эти модели могут выполняться таким образом, чтобы результаты можно было проверять в блокчейне надежным способом. Оба проекта используют Open Neural Network Exchange (ONNX) для преобразования моделей машинного обучения, написанных на распространенных языках, таких как TensorFlow и Pytorch, в стандартный формат. Затем они выводят версии этих моделей, которые также генерируют доказательства zk при выполнении. EZKL имеет открытый исходный код, производящий zk-SNARK, в то время как Giza имеет закрытый исходный код, производящий zk-STARK. Оба проекта в настоящее время совместимы только с EVM.

В последние месяцы EZKL сделал значительные успехи в усовершенствовании решений zkML, в основном сосредотачиваясь на снижении затрат, улучшении безопасности и ускорении генерации доказательств. Например, в ноябре 2023 года EZKL интегрировала новую библиотеку открытого исходного кода для GPU, что сократило время агрегации доказательств на 35%; в январе EZKL выпустила Lilith, программное решение для интеграции кластеров высокопроизводительных вычислений и оркестрации параллельных систем заданий при использовании доказательств EZKL. Уникальность Giza заключается в предоставлении инструментов для создания проверяемых моделей машинного обучения и планирования реализации web3-эквивалента Hugging Face, открывая пользовательский рынок для сотрудничества и обмена моделями zkML, а также в конечном итоге интегрируя децентрализованные вычислительные продукты. В январе EZKL опубликовала бенчмарк-оценку, сравнивая производительность EZKL, Giza и RiscZero (как описано ниже), демонстрируя более быстрые времена доказательств и использование памяти.

В настоящее время Modulus Labs разрабатывает новую технологию доказательства с нулевым разглашением (zk), специально разработанную для моделей ИИ. Компания Modulus опубликовала статью под названием «Интеллектуальная стоимость», в которой подразумевается, что запуск моделей ИИ в блокчейне влечет за собой непомерно высокие затраты. В этом документе, опубликованном в январе 2023 года, сравниваются существующие системы zk-proof, чтобы выявить улучшения в возможностях zk-доказательств и узкие места в моделях ИИ. Он показывает, что существующие продукты слишком дороги и неэффективны для крупномасштабных приложений ИИ. Основываясь на первоначальных исследованиях, Modulus запустил Remainder в ноябре, специализированный zk prover, направленный на снижение стоимости и времени проверки моделей ИИ, что делает проекты экономически жизнеспособными для крупномасштабной интеграции в смарт-контракты. Их работа является проприетарной, что делает невозможным сравнение с упомянутыми решениями, но недавно она была процитирована в блоге Виталика о криптографии и искусственном интеллекте.

Развитие инструментов и инфраструктуры критично для будущего роста пространства zkML, поскольку это может значительно снизить трение, связанное с развертыванием проверяемых вычислений вне цепи и потребностью в командах zk. Создание безопасных интерфейсов для практикующих машинного обучения, не связанных с криптовалютами, позволит приложениям экспериментировать с действительно новыми случаями использования. Кроме того, эти инструменты решают основной барьер для более широкого принятия zkML: отсутствие квалифицированных разработчиков, заинтересованных в работе на пересечении нулевого знания, машинного обучения и криптографии.

Копроцессор

Другие решения в разработке, называемые «сопроцессорами» (включая RiscZero, Axiom и Ritual), выполняют различные функции, включая проверку оффчейн вычислений ончейн. Как EZKL, Giza и Modulus, их целью является полная абстракция процесса генерации zk-доказательств, создание виртуальных машин с нулевым разглашением способных выполнять оффчейн программы и генерировать ончейн верифицируемые доказательства. RiscZero и Axiom ориентированы на простые модели ИИ как более общие сопроцессоры, в то время как Ritual построен специально для использования с моделями ИИ.

Первый экземпляр Ritual, Infernet, включает Infernet SDK, который позволяет разработчикам отправлять запросы на вывод в сеть и получать в ответ выводы и необязательные доказательства. Узлы Infernet обрабатывают эти вычисления вне цепи блоков перед возвратом выводов. Например, DAO может установить процесс, обеспечивающий выполнение определенных предварительных условий перед представлением всех новых предложений управления. Каждый раз, когда представляется новое предложение, контракт управления генерирует запрос на вывод через Infernet, вызывая модель ИИ, специально обученную для управления DAO. Эта модель проверяет предложение, чтобы гарантировать выполнение всех необходимых стандартов, и возвращает выводы и доказательства для утверждения или отклонения представления предложения.

За следующий год команда Ritual планирует внедрить больше функций, формируя инфраструктурный уровень, известный как суперцепь Ritual. Многие обсуждаемые проекты могут быть интегрированы как поставщики услуг в Ritual. Команда Ritual уже интегрировалась с EZKL для генерации доказательств и вскоре может добавить функции от других ведущих поставщиков. Узлы Infernet на Ritual также могут использовать графические процессоры Akash или io.net и запрашивать модели, обученные в подсети Bittensor. Их конечная цель - стать предпочтительным провайдером открытой ИИ-инфраструктуры, предлагая услуги по машинному обучению и другим задачам, связанным с ИИ, для любой сети и любой нагрузки.

Приложения

zkML помогает примирить дихотомию между блокчейном, который по своей природе ограничен в ресурсах, и искусственным интеллектом, который требует значительных вычислительных ресурсов и ресурсов данных. Как говорит основатель Giza, «варианты использования невероятно богаты... Это немного похоже на вопрос о том, каковы были варианты использования смарт-контрактов в первые дни Ethereum... То, что мы делаем, — это просто расширение вариантов использования смарт-контрактов». Однако, как уже отмечалось, нынешнее развитие происходит преимущественно на инструментальном и инфраструктурном уровне. Приложения все еще находятся на стадии изучения, и перед командами стоит задача доказать, что ценность, получаемая от внедрения моделей с помощью zkML, перевешивает ее сложность и стоимость.

Текущие приложения включают в себя:

  • Децентрализованные финансы (DeFi). zkML расширяет возможности смарт-контрактов, обновляя пространство дизайна для DeFi. Протоколы DeFi предлагают множество проверяемых и неизменяемых данных для моделей машинного обучения, которые можно использовать для создания доходных или торговых стратегий, анализа рисков, пользовательского опыта и т. д. Например, Giza сотрудничала с Yearn Finance для создания экспериментального механизма автоматической оценки рисков для новых хранилищ Yearn v3. Modulus Labs работает с Lyra Finance над интеграцией машинного обучения в свой AMM, с Ion Protocol для реализации моделей анализа рисков валидаторов и помогает Upshot в проверке информации о ценах NFT с поддержкой искусственного интеллекта. Такие протоколы, как NOYA (с использованием EZKL) и Mozaic, предоставляют доступ к проприетарным моделям вне сети, позволяя пользователям получать доступ к автоматизированному майнингу ликвидности при проверке входных данных и доказательств в сети. Spectral Finance разрабатывает механизм кредитного скоринга в сети для прогнозирования вероятности дефолта заемщиков Compound или Aave по кредитам. Благодаря zkML эти так называемые продукты «De-Ai-Fi», вероятно, будут становиться все более популярными в ближайшие годы.
  • Игры. Игры давно считаются объектом нарушения и улучшения с помощью публичных блокчейнов. zkML позволяет использовать искусственный интеллект на цепи для игр. Компания Modulus Labs реализовала концепцию простых ончейн-игр. "Лила против Мира" - это игра на основе теории игр в шахматы, где пользователи соревнуются с моделью искусственного интеллекта, а zkML проверяет каждый ход Лилы на основе модели игры. Аналогично, команды используют фреймворк EZKL для создания простых песенных конкурсов и онлайн-крестики-нолики. Cartridge использует Giza для того, чтобы команды могли развертывать полностью ончейн-игры, недавно выделив простую игру с искусственным интеллектом, где пользователи могут соревноваться в создании лучших моделей для машин, пытающихся избегать препятствий. Хотя эти концепции просты, они указывают на будущие реализации, способные к более сложной проверке на цепи, такие как сложные актеры NPC, которые могут взаимодействовать с экономикой внутриигровых миров, как это видно в "AI Arena", игре Super Smash Brothers, где игроки могут тренировать своих воинов и затем развертывать их в качестве моделей искусственного интеллекта для борьбы.
  • Идентификация, происхождение и конфиденциальность. Криптовалюты используются для проверки подлинности и борьбы с растущей проблемой контента, созданного/манипулируемого искусственным интеллектом, и глубоких подделок. zkML может способствовать этим усилиям. WorldCoin - это решение для проверки личности, которое требует, чтобы пользователи сканировали свои радужные оболочки глаза для создания уникального идентификатора. В будущем биометрические идентификаторы можно будет размещать на личных устройствах с помощью шифрования и проверять с помощью моделей, которые запускаются локально. Затем пользователи могли предоставлять биометрические доказательства, не раскрывая свою личность, тем самым защищаясь от атак Сивиллы, обеспечивая при этом конфиденциальность. Это также может относиться к другим выводам, требующим конфиденциальности, таким как использование моделей для анализа медицинских данных/изображений для выявления заболеваний, проверка личности и разработка алгоритмов сопоставления в приложениях для знакомств, а также к страховым и кредитным учреждениям, нуждающимся в проверке финансовой информации.

Перспектива

zkML остается экспериментальным, поскольку большинство проектов сосредоточены на создании инфраструктурных примитивов и концепций. Существующие вызовы включают вычислительные затраты, ограничения памяти, сложность модели, ограниченные инструменты и инфраструктуру, а также талант разработчика. Другими словами, необходимо проделать значительную работу, прежде чем zkML сможет быть реализован в масштабах, требуемых потребительскими продуктами.

Однако по мере зрелости отрасли и устранения этих ограничений zkML станет ключевым компонентом интеграции искусственного интеллекта с криптографией. По сути, zkML обещает привести любой масштаб вычислений вне цепи на цепь, сохраняя те же или сходные гарантии безопасности, что и при выполнении на цепи. Однако, прежде чем эта видение будет реализовано, ранние принявшие технологию будут продолжать балансировать конфиденциальность и безопасность zkML против эффективности альтернатив.

Агенты искусственного интеллекта

Агенты искусственного интеллекта

Одна из самых захватывающих интеграций искусственного интеллекта и криптовалюты - это непрерывный эксперимент с агентами искусственного интеллекта. Агенты - это автономные роботы, способные принимать, интерпретировать и выполнять задачи с использованием моделей искусственного интеллекта. Это может варьироваться от наличия личного ассистента, доступного в любое время и настроенного под ваши предпочтения, до найма финансового агента для управления и корректировки вашего инвестиционного портфеля на основе ваших предпочтений по риску.

Учитывая, что криптовалюта предлагает инфраструктуру платежей без разрешений и доверия, агенты и криптовалюта могут быть хорошо интегрированы. После обучения агенты будут иметь кошелек, что позволит им проводить транзакции самостоятельно, используя смарт-контракты. Например, сегодняшние агенты могут собирать информацию в интернете, а затем торговать на рынках прогнозов на основе моделей.

Поставщики агентов

Morpheus - один из самых новых проектов агентов с открытым исходным кодом, запущенных в 2024 году на Ethereum и Arbitrum. Его белая книга была опубликована анонимно в сентябре 2023 года, обеспечивая основу для формирования и построения сообщества, включая такие выдающиеся фигуры, как Эрик Ворхис. В белой книге представлен протокол загружаемого смарт-агента, открытый LLM, который может работать локально, управляемый кошельком пользователя, и взаимодействовать со смарт-контрактами. Он использует рейтинги смарт-контрактов, чтобы помочь агентам определить, с какими смарт-контрактами можно безопасно взаимодействовать на основе критериев, таких как количество обработанных транзакций.

Белая книга также предоставляет структуру для создания сети Morpheus, включая инцентивные структуры и инфраструктуру, необходимую для запуска протокола умного агента. Это включает стимулы для участников создавать фронтенды для взаимодействия с агентами, API для разработчиков для создания плагинов агентов для взаимодействия, а также облачные решения для пользователей для доступа к вычислениям и хранению, необходимым для запуска агентов на устройствах края. Начальное финансирование проекта было запущено в начале февраля, и полный протокол должен быть запущен во втором квартале 2024 года.

Децентрализованная автономная инфраструктурная сеть (DAIN) — это новый протокол агентской инфраструктуры, создающий экономику от агента к агенту на Solana. Цель DAIN — дать возможность агентам из разных предприятий беспрепятственно взаимодействовать друг с другом через общий API, значительно открывая пространство для проектирования агентов ИИ, уделяя особое внимание агентам, которые могут взаимодействовать как с продуктами web2, так и с web3. В январе DAIN объявила о своем первом партнерстве с Asset Shield, позволяющем пользователям добавлять «агентов-подписантов» в свои мультиподписи, способные интерпретировать транзакции и одобрять/отклонять их на основе установленных пользователем правил.

Fetch.AI - один из первых внедренных протоколов искусственного интеллекта и разработал экосистему для создания, развертывания и использования агентов on-chain с использованием токенов FET и кошельков Fetch.AI. Протокол предлагает комплексный набор инструментов и приложений для использования агентов, включая функции кошелька для взаимодействия и заказа агентов.

Autonolas, основанная бывшими членами команды Fetch, представляет собой открытый рынок для создания и использования децентрализованных ИИ-агентов. Autonolas также предоставляет разработчикам набор инструментов для создания агентов искусственного интеллекта, размещенных вне сети, которые могут подключаться к нескольким блокчейнам, включая Polygon, Ethereum, Gnosis Chain и Solana. В настоящее время у них есть несколько активных агентов для проверки концепции, в том числе для прогнозных рынков и управления DAO.

SingularityNet строит децентрализованную площадку для искусственного интеллекта, где специализированные агенты ИИ могут быть задействованы, которые могут быть наняты другими агентами для выполнения сложных задач. Другие компании, такие как AlteredStateMachine, разрабатывают интеграции агентов ИИ с NFT. Пользователи создают NFT с случайными атрибутами, которые дают им преимущества и недостатки в различных задачах. Затем эти агенты могут быть обучены для улучшения определенных атрибутов для использования в играх, DeFi или в качестве виртуальных ассистентов и обмениваться ими с другими пользователями.

В целом эти проекты предвидят будущую экосистему агентов, способных совместно работать не только для выполнения задач, но и для помощи в построении общего искусственного интеллекта. Действительно сложные агенты будут иметь возможность автономно выполнять любую задачу пользователя. Например, полностью автономные агенты смогут определить, как нанять другого агента для интеграции API, затем выполнить задачу, не обязательно убеждаясь, что агент уже интегрирован с внешними API (например, сайтами бронирования путешествий) перед использованием. С точки зрения пользователя нет необходимости проверять, может ли агент выполнить задачу, поскольку агент может определить это самостоятельно.

Биткойн и агенты искусственного интеллекта

В июле 2023 года компания Lightning Labs запустила концептуальную реализацию использования агентов в Lightning Network, которую назвали биткоин-набором компании LangChain. Этот продукт особенно интересен, поскольку он направлен на решение проблемы, которая становится все более серьезной в мире Веб 2 - ограниченные и дорогостоящие ключи API веб-приложений.

LangChain решает эту проблему, предоставляя разработчикам набор инструментов, которые позволяют агентам покупать, продавать и удерживать биткоины, а также запрашивать ключи API и отправлять микроплатежи. На традиционных платежных платформах микроплатежи являются чрезмерно дорогими из-за комиссий, но на сети Lightning агенты могут отправлять неограниченное количество микроплатежей ежедневно по минимальной стоимости. Когда используется с фреймворком L402 платного метрического API LangChain, компании могут корректировать затраты на доступ к своим API в зависимости от увеличения и уменьшения использования, а не устанавливать единый дорогой стандарт.

В будущем цепные активности будут в основном стимулироваться взаимодействием между агентами, требуя механизмов, обеспечивающих возможность взаимодействия агентов друг с другом без запретительных затрат. Этот ранний пример демонстрирует потенциал использования агентов на разрешенных и экономически эффективных платежных рельсах, открывая возможности для новых рынков и экономических взаимодействий.

Прогноз

Область агентов все еще находится в начальной стадии развития. Проекты только начали запускать функциональных агентов, способных обрабатывать простые задачи, доступ к которым обычно ограничен опытными разработчиками и пользователями. Однако с течением времени одним из наиболее значительных последствий искусственного интеллекта для криптовалют будет улучшение пользовательского опыта во всех отраслях. Транзакции начнут переходить от основанных на нажатии кнопок к текстовым, что позволит пользователям взаимодействовать с агентами на цепи через разговорные интерфейсы. Команды, такие как Dawn Wallet, уже запустили чат-бот кошельки, позволяющие пользователям взаимодействовать на цепи.

Кроме того, остается неясным, как агенты будут работать в Web 2, поскольку финансовые рельсы полагаются на регулируемые банковские учреждения, которые не могут работать 24 часа в сутки 7 дней в неделю или способствовать беспрепятственным трансграничным транзакциям. Как подчеркнула Лин Олден, отсутствие возвратов и возможность обработки микротранзакций делают криптовалютные рельсы особенно привлекательными по сравнению с кредитными картами. Однако, если агенты станут более распространенным средством для транзакций, существующие поставщики платежных услуг и приложения, вероятно, быстро адаптируются, внедряя инфраструктуру, необходимую для работы на существующих финансовых рельсах, тем самым уменьшая некоторые преимущества использования криптовалюты.

В настоящее время агенты могут быть ограничены детерминированными криптовалютными транзакциями, где определенный ввод гарантирует определенный вывод. Обе модели описали способность этих агентов выяснить, как выполнять сложные задачи, и инструменты расширяют спектр задач, которые они могут выполнить, обе из которых требуют дальнейшего развития. Для того чтобы криптовалютные агенты стали полезными за пределами новых случаев использования криптовалюты на цепочке, требуется более широкая интеграция и принятие криптовалюты в качестве формы оплаты, а также ясность в регулировании. Однако, по мере развития этих компонентов, агенты готовы стать одними из крупнейших потребителей децентрализованных вычислений и решений zkML, автономно получая и решая любую задачу недетерминированным образом.

Заключение

ИИ внедряет в криптовалюту те же инновации, которые мы видели в web2, улучшая все, начиная от развития инфраструктуры и опыта пользователей до доступности. Однако проекты все еще находятся на ранних стадиях развития, и ближайшая интеграция криптовалюты и искусственного интеллекта в основном будет осуществляться за счет оффчейн интеграций.

Такие продукты, как Copilot, призваны «повысить эффективность разработки в 10 раз», а приложения уровня 1 и DeFi уже запустили платформы разработки с поддержкой искусственного интеллекта в сотрудничестве с крупными компаниями, такими как Microsoft. Такие компании, как Cub3.ai и Test Machine, разрабатывают интеграции искусственного интеллекта для аудита смарт-контрактов и мониторинга угроз в режиме реального времени для повышения безопасности в сети. Чат-боты LLM обучаются работе с ончейн-данными, документацией по протоколам и приложениями, чтобы предоставить пользователям расширенную доступность и пользовательский опыт.

Вызовом для более сложных интеграций, которые действительно используют базовую технологию криптовалют, остаётся доказать, что внедрение решений искусственного интеллекта в цепочку технически и экономически целесообразно. Развитие децентрализованных вычислений, zkML и искусственных интеллектуальных агентов указывает на многообещающие вертикали, заложив основу для глубоко взаимосвязанного будущего криптовалют и искусственного интеллекта.

Отказ от ответственности:

  1. Эта статья перепечатана с технологический поток, Все авторские права принадлежат оригинальному автору [Лукас Тчеян]. Если есть возражения по поводу этого перепечатывания, пожалуйста, свяжитесь с Gate Learnкоманда, и они незамедлительно справятся с этим.
  2. Ответственность за отказ: Взгляды и мнения, выраженные в этой статье, являются исключительно мнением автора и не являются инвестиционной консультацией.
  3. Переводы статьи на другие языки выполняются командой Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.
即刻开始交易
注册并交易即可获得
$100
和价值
$5500
理财体验金奖励!