O surgimento de blockchains públicos é um dos avanços mais profundos na história da ciência da computação. Mas o desenvolvimento da inteligência artificial terá, e já está tendo, um impacto profundo em nosso mundo. Se a tecnologia blockchain fornece um novo modelo para liquidação de transações, armazenamento de dados e design de sistemas, a inteligência artificial é uma revolução na computação, análise e entrega de conteúdo. A inovação nas duas indústrias está desbloqueando novos casos de uso que poderiam acelerar a adoção de ambas nos próximos anos. Este relatório explora as integrações em curso de cripto e IA com foco em novos casos de uso que tentam preencher a lacuna entre os dois, aproveitando o poder de ambos. Especificamente, este relatório examina projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.
Cripto fornece à IA uma camada de liquidação sem permissão, sem confiança e componível. Isso desbloqueia casos de uso, como tornar o hardware mais acessível por meio de sistemas de computação descentralizados, construir agentes de IA que podem executar tarefas complexas que exigem a troca de valor e desenvolver soluções de identidade e procedência para combater ataques Sybil e deep fakes. A IA traz para a cripto muitos dos mesmos benefícios que vemos na Web 2. Isso inclui uma experiência do usuário aprimorada (UX) tanto para usuários quanto para desenvolvedores, graças a modelos de linguagem grandes (ou seja, versões especialmente treinadas do ChatGPT e Copilot) e o potencial de melhorar significativamente a funcionalidade e automação de contratos inteligentes. As blockchains são ambientes transparentes e ricos em dados de que a IA precisa. Mas as blockchains também têm capacidade computacional limitada, um grande obstáculo para a integração direta de modelos de IA.
A força motriz por trás da experimentação contínua e da adoção eventual na intersecção entre Cripto e IA é a mesma que impulsiona grande parte dos casos de uso mais promissores de Cripto - o acesso a uma camada de coordenação sem permissão e sem confiança que facilita melhor a transferência de valor. Dado o enorme potencial, os participantes no espaço precisam entender as maneiras fundamentais nas quais as duas tecnologias se intersectam.
A Inteligência Artificial é a utilização de computação e máquinas para imitar o raciocínio e as habilidades de resolução de problemas dos seres humanos.
As redes neurais são um método de treinamento para modelos de IA. Elas passam as entradas por camadas discretas de algoritmos, refinando-as até que a saída desejada seja produzida. Redes neurais são compostas por equações que possuem pesos que podem ser modificados para alterar a saída. Elas podem exigir quantidades incríveis de dados e computação para serem treinadas, de modo que suas saídas sejam precisas. É uma das maneiras mais comuns pelas quais os modelos de IA são desenvolvidos (o ChatGPT usa um processo de rede neural dependente detransformadores).
O treinamento é o processo pelo qual as redes neurais e outros modelos de IA são desenvolvidos. Requer grandes quantidades de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o processo de treinamento, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treinamento pode ser muito caro. O ChatGPT, por exemplo, utilizadezenas de milhares de suas próprias GPUs para processar seus dados. Equipes com menos recursos frequentemente dependem de provedores de computação dedicados como Amazon Web Services, Azure e Google Cloud Providers.
A inferência é o uso real de um modelo de IA para obter uma saída ou resultado (por exemplo, usar o ChatGPT para criar um esboço para um trabalho sobre a interseção de cripto e IA). As inferências são usadas ao longo do processo de treinamento e no produto final. Elas podem ser caras de executar, mesmo após o treinamento ser concluído, devido aos custos computacionais, mas são menos intensivas computacionalmente do que o treinamento.
Provas de conhecimento zero (ZKP) permitem a verificação de uma reivindicação sem revelar as informações subjacentes. Isso é útil na cripto por duas razões principais: 1) privacidade e 2) escalonamento. Para a privacidade, isso permite que os usuários realizem transações sem revelar informações sensíveis, como quanto ETH está em sua carteira. Para o escalonamento, permite que a computação off-chain seja comprovada on-chain mais rapidamente do que ter que reexecutar a computação. Isso permite que blockchains e aplicativos executem computações de forma barata off-chain e depois as verifiquem on-chain. Para obter mais informações sobre o conhecimento zero e seu papel na Máquina Virtual Ethereum, consulte o relatório de Christine KimzkEVMs: O Futuro da Escalabilidade do Ethereum.
Projetos no cruzamento da IA e cripto ainda estão construindo a infraestrutura subjacente necessária para suportar interações de IA on-chain em escala.
Mercados de computação descentralizada estão surgindo para fornecer grandes quantidades de hardware físico, principalmente na forma de unidades de processamento gráfico (GPUs), necessárias para treinar e inferir modelos de IA. Esses mercados de duas faces conectam aqueles que alugam e procuram alugar computação, facilitando a transferência de valor e verificação de computação. Dentro da computação descentralizada, várias subcategorias estão surgindo que fornecem funcionalidades adicionais. Além dos mercados de duas faces, este relatório examinará os provedores de treinamento de aprendizado de máquina que se especializam em serviços de treinamento verificável e ajuste fino de saídas, bem como projetos que trabalham para conectar computação e geração de modelos para alcançar inteligência artificial geral, também frequentemente referida como redes de incentivo à inteligência.
zkML é uma área emergente de foco para projetos que desejam fornecer saídas de modelo verificáveis na cadeia de forma econômica e oportuna. Esses projetos permitem principalmente que aplicativos lidem com solicitações de computação pesadas offchain e, em seguida, publiquem na cadeia uma saída verificável comprovando que a carga de trabalho offchain está completa e precisa. zkML é tanto caro quanto demorado em sua instância atual, mas está sendo cada vez mais usado como uma solução. Isso é evidente no crescente número de integrações entre fornecedores de zkML e aplicativos DeFi/Jogos que desejam aproveitar modelos de IA.
Ampla oferta de computação e a capacidade de verificar essa computação on-chain abre as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar solicitações em nome de um usuário. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo que os usuários executem transações complexas apenas falando com um chatbot. No entanto, como existem hoje, os projetos de Agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.
A IA requer grandes quantidades de computação, tanto para treinar modelos quanto para executar inferências. Ao longo da última década, à medida que os modelos se tornaram mais sofisticados, os requisitos de computação cresceram exponencialmente. A OpenAI, por exemplo, encontrouque entre 2012 e 2018, os requisitos de computação para seus modelos passaram a dobrar a cada dois anos para cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmoreutilizando suas GPUspara fornecer serviços de computação em nuvem (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">saiba mais sobre isso em nosso relatório anual de mineração de Bitcoin). À medida que a competição para acessar computação aumenta e os custos aumentam, vários projetos estão utilizando cripto para fornecer soluções de computação descentralizadas. Eles oferecem computação sob demanda a preços competitivos para que as equipes possam treinar e executar modelos de forma acessível. A compensação, em alguns casos, pode ser desempenho e segurança.
GPUs de última geração, como aqueles produzidospela Nvidia, estão em alta demanda. Em setembro, Tetheradquiridouma participação na Northern Data, uma mineradora alemã de Bitcoin, teria pago $420 milhões para adquirir 10.000 H100 GPUs (uma das GPUs mais avançadas para treinamento de IA).EsperarOs tempos para o melhor hardware em classe podem ser de pelo menos seis meses e, em muitos casos, mais longos. Para piorar a situação, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para quantidades de computação que talvez nem usem. Isso pode levar a situações em que há computação disponível, mas não está disponível no mercado. Sistemas de computação descentralizados ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem sublocar sua capacidade excedente a qualquer momento, desbloqueando novos suprimentos.
Além da precificação competitiva e da acessibilidade, a proposição de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com acesso incomparável à computação e dados. O primeiro tema-chave destacado no Relatório do Índice de AIO relatório anual de 2023 é que a indústria está cada vez mais superando a academia no desenvolvimento de modelos de IA, centralizando o controle nas mãos de alguns líderes de tecnologia. Isso levantou preocupações sobre sua capacidade de ter uma influência desproporcional na ditadura das normas e valores que sustentam os modelos de IA, especialmente após a regulamentaçãoempurrapor essas mesmas empresas de tecnologia para restringir o desenvolvimento de IA fora de seu controle.
Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.
Projetos como Akash, io.net, iExec, Cudos e muitos outros são aplicações de computação descentralizadas que oferecem acesso a, ou em breve oferecerão acesso a, computação especializada para treinamento de IA e inferências, além de soluções de dados e computação generalizada.
Akash é atualmente a única plataforma "supercloud" totalmente de código aberto. É uma rede de prova de participação que utiliza o Cosmos SDK. AKT, o token nativo da Akash, é usado para garantir a rede, como forma de pagamento e para incentivar a participação. Akash lançou sua primeira mainnet em 2020, focada em fornecer um mercado de computação em nuvem sem permissão, apresentando inicialmente serviços de armazenamento e locação de CPU. Em junho de 2023, Akash lançadouma nova testnet focada em GPUs e em setembrolançadosua mainnet de GPU permitindo aos usuários alugar GPUs para treinamento de IA e inferências.
Existem dois atores principais no ecossistema Akash - Inquilinos e Fornecedores. Inquilinos são usuários da rede Akash que desejam comprar recursos computacionais. Fornecedores são os fornecedores de computação. Para combinar inquilinos e fornecedores, Akash depende de um processo de leilão reverso. Os inquilinos enviam seus requisitos de computação, nos quais podem especificar certas condições, como a localização dos servidores ou o tipo de hardware que realiza a computação, e o valor que estão dispostos a pagar. Os fornecedores então enviam seu preço solicitado, sendo o lance mais baixo o que recebe a tarefa.
Os validadores Akash mantêm a integridade da rede. O conjunto de validadores está atualmente limitado a 100 com planos de aumentar incrementalmente ao longo do tempo. Qualquer pessoa pode se tornar um validador apostando mais AKT do que o validador atual com a menor quantidade de AKT apostada. Os detentores de AKT também podem delegar seu AKT a validadores. Taxas de transação e recompensas de bloco para a rede são distribuídas no AKT. Além disso, para cada locação, a rede Akash ganha uma "taxa de take" a uma taxa determinada pela comunidade que é distribuída aos detentores da AKT.
Os mercados de computação descentralizada visam preencher as ineficiências no mercado de computação existente. As restrições de oferta estão levando as empresas a acumular computação além do que podem precisar, e a oferta é ainda mais restrita devido à estrutura de contratos com provedores de nuvem que prendem os clientes em contratos de longo prazo, mesmo que o acesso contínuo possa não ser necessário. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa no mundo com a computação exigida se torne um fornecedor.
Resta saber se o aumento da demanda por GPUs para treinamento de IA se traduzirá em uso de rede de longo prazo no Akash. A Akash há muito tempo fornece um mercado para CPUs, por exemplo, oferecendo serviços semelhantes como alternativas centralizadas em 70-80%desconto. No entanto, os preços mais baixos não resultaram em uma adoção significativa. Os contratos ativos na rede se estabilizaram, com uma média de apenas 33% de computação, 16% de memória e 13% de armazenamento para o segundo trimestre de 2023. Embora essas sejam métricas impressionantes para a adoção on-chain (para referência, o principal provedor de armazenamento Filecoin teve12.6% de utilização de armazenamentono terceiro trimestre de 2023), isso demonstra que o fornecimento continua a superar a demanda por esses produtos.
Faz pouco mais de meio ano desde o lançamento da rede GPU da Akash e ainda é muito cedo para medir com precisão a adoção a longo prazo. Um sinal de demanda, a utilização média da GPU até o momento é de 44% e maior do que CPUs, memória e armazenamento. Isso é impulsionado principalmente pela demanda pelos GPUs de mais alta qualidade (como os A100s), com mais90%alugado.
Os gastos diários com Akash também aumentaram, quase dobrando em relação aos pré-GPUs. Isso pode ser parcialmente atribuído a um aumento em outros serviços utilizados, especialmente CPUs, mas é principalmente resultado do novo uso de GPUs.
Os preços correspondem (ou, em alguns casos, são ligeiramente mais caros) aos de seus concorrentes centralizados, como Lambda Cloud e Vast.ai. A incrível demanda pelas GPUs de ponta (como H100 e A100s) significa que a maioria dos proprietários desse equipamento tem pouco interesse em listá-lo em mercados onde enfrentam preços competitivos.
Embora o interesse inicial seja promissor, ainda existem barreiras à adoção (discutidas mais abaixo). As redes de computação descentralizadas precisarão fazer mais para gerar demanda e oferta, e as equipes estão experimentando a melhor forma de atrair novos usuários. No início de 2024, por exemplo, Akash passouProposta 240aumentar as emissões de AKT para os fornecedores de GPU e incentivar mais oferta, visando especificamente GPUs de alta qualidade. As equipes também estão trabalhando no lançamento de modelos de prova de conceito para demonstrar aos usuários em potencial as capacidades em tempo real de suas redes. Akash é formaçãoseu próprio modelo fundamental e já lançouchatbotegeração de imagem ofertas que criam saídas usando GPUs Akash. Da mesma forma, io.net tem desenvolvidoum modelo de difusão estável e está sendo implementadonovas funcionalidades de rede que imitam melhor o desempenho e a escala dos datacenters de GPU tradicionais.
Além das plataformas de computação generalizadas que podem atender às necessidades de IA, também estão surgindo um conjunto de fornecedores especializados de GPU de IA focados no treinamento de modelos de aprendizado de máquina. A Gensyn, por exemplo, é “coordenando eletricidade e hardware para construir inteligência coletiva" com a visão de que, "se alguém quer treinar algo, e alguém está disposto a treiná-lo, então esse treinamento deve ser permitido acontecer".
O protocolo tem quatro atores principais: remetentes, solucionadores, verificadores e denunciantes. Os remetentes enviam tarefas para a rede com solicitações de treinamento. Essas tarefas incluem o objetivo do treinamento, o modelo a ser treinado e os dados do treinamento. Como parte do processo de envio, os enviadores pagam uma taxa adiantada pelo cálculo estimado exigido do solver.
Uma vez enviadas, as tarefas são atribuídas aos solucionadores que conduzem o treinamento real dos modelos. Os solvers então enviam as tarefas concluídas para verificadores que são responsáveis por verificar o treinamento para garantir que ele foi feito corretamente. Os denunciantes são responsáveis por garantir que os verificadores se comportem honestamente. Para incentivar os denunciantes a participar da rede, Gensyn planeja fornecer periodicamente provas propositalmente incorretas que recompensam os denunciantes por pegá-los.
Além de fornecer computação para cargas de trabalho relacionadas à IA, a proposição de valor-chave da Gensyn é seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que os cálculos externos feitos pelos provedores de GPU sejam executados corretamente (ou seja, para garantir que o modelo de um usuário seja treinado da maneira desejada). A Gensyn aborda esse problema com uma abordagem única, aproveitando métodos de verificação inovadores chamados "Prova probabilística de aprendizado, protocolo de pinpoint baseado em gráfico e jogos de incentivo no estilo Truebit". Este é um modo de resolução otimista que permite a um verificador confirmar que um solucionador executou corretamente um modelo sem ter que executá-lo completamente novamente, o que é um processo caro e ineficiente.
Além do seu método inovador de verificação, Gensyn também reivindicaçõesser economicamente viável em relação às alternativas centralizadas e aos concorrentes de cripto - fornecendo treinamento de ML com até 80% mais barato do que a AWS, superando projetos semelhantes como o Truebit em testes.
Se esses resultados iniciais podem ser replicados em escala em uma rede descentralizada ainda está por ver. Gensyn quer aproveitar o poder de computação excedente de fornecedores como pequenos centros de dados, usuários comuns e, no futuro, até mesmo dispositivos móveis menores como celulares. No entanto, como a própria equipe do Gensyn temadmitido, contar com provedores de computação heterogêneos introduz vários novos desafios.
Para fornecedores centralizados como Google Cloud Providers e Coreweave, o cálculo é caro, enquanto a comunicação entre esse cálculo (largura de banda e latência) é barata. Esses sistemas são projetados para permitir a comunicação entre o hardware o mais rápido possível. Gensyn inverte esse framework, reduzindo os custos de cálculo ao permitir que qualquer pessoa no mundo forneça GPUs, mas aumentando os custos de comunicação, já que a rede agora deve coordenar trabalhos de cálculo em hardware heterogêneo localizado longe um do outro. Gensyn ainda não foi lançado, mas é uma prova de conceito do que pode ser possível ao construir protocolos de treinamento de aprendizado de máquina descentralizados.
As plataformas de computação descentralizada também estão abrindo as possibilidades de design para métodos de criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído sobre Substrate que é tentando respondera questão de, “como podemos transformar a IA em uma abordagem colaborativa?” Bittensor tem como objetivo descentralizar e mercantilizar a geração de inteligência artificial. Lançado em 2021, o protocolo deseja aproveitar o poder de modelos colaborativos de aprendizado de máquina para iterar continuamente e produzir uma inteligência artificial melhor.
Bittensor se inspira no Bitcoin, com um fornecimento de vinte e um milhões de sua moeda nativa TAO e um ciclo de halving de quatro anos (o primeiro halving será em 2025). Em vez de usar Proof of Work para gerar o nonce correto e ganhar uma recompensa de bloco, Bittensor depende do “Proof of Intelligence”, exigindo que os mineradores executem modelos que produzam saídas em resposta a solicitações de inferência.
Bittensor originalmente dependia de um modelo de mistura de especialistas (MoE) para produzir saídas. Quando as solicitações de inferência são enviadas, em vez de depender de um modelo generalizado, os modelos do MoE retransmitem a solicitação de inferência para os modelos mais precisos para um determinado tipo de entrada. Pense em construir uma casa onde você contrata uma variedade de especialistas para diferentes aspectos do processo de construção (ex: arquitetos, engenheiros, pintores, trabalhadores da construção etc...). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos dependendo da entrada. Como fundador da Bittensor Ala Shaabana explicado, é como 'falar com uma sala de pessoas inteligentes e obter a melhor resposta em vez de falar com uma pessoa.' Devido adesafios Com a garantia do roteamento adequado, sincronização de mensagens com o modelo correto e incentivo, essa abordagem foi deixada de lado até que o projeto seja mais desenvolvido.
Existem dois atores principais na rede Bittensor: validadores e mineradores. Os validadores são responsáveis por enviar solicitações de inferência aos mineradores, revisar suas saídas e classificá-las com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem pontuações de “vtrust” com base em quão bem suas classificações se alinham com as classificações de outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles ganham. Isso é para incentivar os validadores a alcançar consenso sobre as classificações do modelo ao longo do tempo, à medida que mais validadores alcançam acordo sobre as classificações, maior serão suas pontuações individuais de vtrust.
Os mineradores, também chamados de servidores, são participantes da rede que executam os modelos de aprendizado de máquina reais. Os mineradores competem entre si para fornecer aos validadores as saídas mais precisas para uma determinada consulta, ganhando mais emissões de TAO quanto mais precisa for sua saída. Os mineradores podem gerar essas saídas da maneira que desejarem. Por exemplo, é inteiramente possível em um cenário futuro que um minerador do Bittensor possa ter treinado modelos anteriormente no Gensyn que eles usam para ganhar emissões de TAO.
Hoje, a maioria das interações acontece diretamente entre validadores e mineradores. Validadores enviam inputs para os mineradores e solicitam outputs (ou seja, treinam o modelo). Uma vez que um validador consultou os mineradores na rede e recebeu suas respostas, eles classificam os mineradores e enviam suas classificações para a rede.
Essa interação entre validadores (que dependem de PoS) e mineradores (que dependem do Modelo de Prova, uma forma de PoW) - é chamada de Consenso Yuma. Ele busca incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e os validadores a classificar com precisão as saídas dos mineradores para ganhar uma pontuação de vtrust mais alta e aumentar suas recompensas de TAO, formando o mecanismo de consenso da rede.
As interações no Bittensor consistem principalmente de validadores enviando solicitações para mineradores e avaliando suas saídas. À medida que a qualidade dos mineradores contribuintes aumenta e a inteligência geral da rede cresce, no entanto, o Bittensor criará uma camada de aplicativo em cima de sua pilha existente para que os desenvolvedores possam construir aplicativos que consultem a rede Bittensor.
Em outubro de 2023, a Bittensor concluiu um passo importante para alcançar isso com o introduçãode sub-redes por meio de sua atualização Revolution. As sub-redes são redes individuais no Bittensor que incentivam comportamentos específicos. A Revolution abre a rede para qualquer pessoa interessada em criar uma sub-rede. Nos meses desde o seu lançamento, mais de 32 sub-redes foram lançados, incluindo aqueles para solicitação de texto, raspagem de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipes criem aplicativos que consultem uma sub-rede específica. Algumas aplicações (chatbot, gerador de imagens, bot de resposta do Twitter, mercado de previsão) existem hoje, mas não há incentivos formais para os validadores aceitarem e transmitirem essas consultas além das bolsas da fundação Bittensor.
Para fornecer uma ilustração mais clara, aqui está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.
Sub-redes ganham TAO com base em seu desempenho avaliado pelo rede raiz. A rede raiz fica no topo de todas as sub-redes, atuando essencialmente como um tipo especial de sub-rede, e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base em seu desempenho e distribuem as emissões do TAO para as sub-redes periodicamente. Dessa forma, as sub-redes individuais atuam como os mineradores da rede raiz.
Bittensor ainda está passando por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineradores continuam a criar novas formas de atacar a rede para ganhar mais recompensas TAO, por exemplo, ligeiramente.modificandoa saída de uma execução de inferência altamente avaliada pelo seu modelo e, em seguida, submetendo várias variações. Propostas de governança que impactam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, que é composta inteiramente pelos stakeholders da Fundação Opentensor (importante notar que as propostas requerem aprovação pela BittensorSenadocomposto por validadores Bittensor antes da implementação). E a tokenomia do projeto está em processo de reformulação para melhorar os incentivos para o uso do TAO em sub-redes. O projeto também está ganhando rapidamente notoriedade por sua abordagem única, com o CEO de um dos sites de IA mais popularesHuggingFaceindicando que a Bittensor deve adicionar seus recursos ao site.
Em um recentemente publicado peçapor um dev central chamado "Bittensor Paradigm", a equipe apresenta sua visão para o Bittensor evoluir eventualmente para ser "agnóstico em relação ao que está sendo medido". Na teoria, isso poderia permitir que o Bittensor desenvolvesse sub-redes incentivando qualquer tipo de comportamento, tudo alimentado por TAO. Permanecem consideráveis restrições práticas - especialmente demonstrar que essas redes são capazes de escalar para lidar com um conjunto tão diversificado de processos e que os incentivos subjacentes impulsionam o progresso que supera as ofertas centralizadas.
As seções acima fornecem uma visão geral de alto nível dos vários tipos de protocolos de computação de inteligência artificial descentralizada em desenvolvimento. Embora estejam em estágios iniciais de desenvolvimento e adoção, eles fornecem a base de um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", como o conceito de "Legos de Dinheiro" da DeFi. A composabilidade das blockchains sem permissão abre a possibilidade para que cada protocolo se construa em cima do outro para fornecer um ecossistema de inteligência artificial descentralizada mais abrangente.
Por exemplo, aqui está uma maneira pela qual Akash, Gensyn e Bittensor podem interagir para responder a uma solicitação de inferência.
Para ser claro, este é simplesmente um exemplo do que poderia ser possível no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados prováveis. Restrições à interoperabilidade, bem como outras considerações descritas abaixo, limitam consideravelmente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens podem ser prejudiciais para a experiência do usuário, algo que tem sidoapontoupelos fundadores tanto da Akash quanto da Bittensor.
Além da computação, vários outros serviços de infraestrutura descentralizada estão sendo lançados para apoiar o ecossistema de IA emergente da cripto. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:
Coletivamente, esses apontam para as oportunidades quase infinitas de explorar modelos de mercado descentralizados que suportam modelos de IA, ou a infraestrutura circundante necessária para desenvolvê-los. Por enquanto, esses projetos estão principalmente na fase de prova de conceito e muito mais pesquisa e desenvolvimento são necessários para demonstrar que podem operar na escala necessária para fornecer serviços abrangentes de IA.
As ofertas de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Elas estão apenas começando a disponibilizar acesso a computação de ponta capaz de treinar os modelos de IA mais poderosos em produção. Para ganhar uma participação de mercado significativa, elas precisarão demonstrar vantagens práticas em comparação com as alternativas centralizadas. Possíveis gatilhos para uma adoção mais ampla incluem:
Contratos inteligentes são um bloco de construção fundamental de qualquer ecossistema de blockchain. Dadas um conjunto específico de condições, eles são executados automaticamente e reduzem ou removem a necessidade de uma terceira parte confiável, possibilitando a criação de aplicativos descentralizados complexos, como os vistos em DeFi. No entanto, da forma como existem em sua maior parte hoje, os contratos inteligentes ainda são limitados em sua funcionalidade, pois são executados com base em parâmetros predefinidos que precisam ser atualizados.
Por exemplo, um contrato inteligente de protocolo de empréstimo/empréstimo é implantado com especificações sobre quando liquidar uma posição com base em determinadas taxas de empréstimo para valor. Embora úteis em um ambiente estático, em uma situação dinâmica onde o risco está constantemente mudando, esses contratos inteligentes devem ser continuamente atualizados para considerar as mudanças na tolerância ao risco, criando desafios para contratos que não são governados por processos centralizados. DAOs, por exemplo, que dependem de processos de governança descentralizados, podem não ser capazes de reagir rapidamente o suficiente para responder a riscos sistêmicos.
Contratos inteligentes que integram IA (ou seja, modelos de aprendizado de máquina) são uma maneira possível de aprimorar a funcionalidade, segurança e eficiência, ao mesmo tempo em que melhoram a experiência geral do usuário. Essas integrações também introduzem riscos adicionais, no entanto, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não possam ser explorados ou considerar situações de longa cauda (que são notoriamente difíceis de treinar modelos dados osescassez de entradas de dadospara eles).
A aprendizagem automática requer grandes quantidades de cálculo para executar modelos complexos, o que impede que os modelos de IA sejam executados diretamente dentro de contratos inteligentes devido aos altos custos. Um protocolo DeFi que fornece aos usuários acesso a um modelo de otimização de rendimento, por exemplo, teria dificuldade em executar esse modelo on-chain sem ter que pagar taxas de gás proibitivamente altas. Uma solução é aumentar o poder computacional da blockchain subjacente. No entanto, isso também aumenta as demandas no conjunto de validadores da cadeia, potencialmente minando as propriedades de descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar saídas de maneira confiável sem a necessidade de computação intensiva on-chain.
Um comumenteUm exemplo compartilhado que ilustra a utilidade do zkML é quando um usuário precisa que outra pessoa execute dados por meio de um modelo e também verifique se a contraparte realmente executou o modelo correto. Talvez um desenvolvedor esteja usando um provedor de computação descentralizado para treinar seus modelos e esteja preocupado que o provedor esteja tentando reduzir custos usando um modelo mais barato com uma diferença quase imperceptível na saída. O zkML permite que o provedor de computação execute os dados por meio de seus modelos e depois gere uma prova que pode ser verificada em cadeia para provar que a saída do modelo para a entrada fornecida está correta. Neste caso, o provedor do modelo teria a vantagem adicional de poder oferecer seus modelos sem ter que revelar os pesos subjacentes que produzem a saída.
O oposto também poderia ser feito. Se um usuário quiser executar um modelo usando seus dados, mas não quiser que o projeto que fornece o modelo tenha acesso aos seus dados devido a preocupações com a privacidade (ou seja, no caso de um exame médico ou informações comerciais proprietárias), então o usuário poderia executar o modelo em seus dados sem compartilhá-lo e depois verificar se executou o modelo correto com uma prova. Essas possibilidades expandem consideravelmente o espaço de design para a integração da funcionalidade de IA e contrato inteligente, enfrentando restrições computacionais proibitivas.
Dado o estágio inicial do espaço zkML, o desenvolvimento está principalmente focado em construir a infraestrutura e ferramentas necessárias para as equipes converterem seus modelos e saídas em provas que podem ser verificadas na cadeia. Esses produtos abstraem o aspecto de conhecimento zero do desenvolvimento o máximo possível.
EZKLeGizasão dois projetos construindo essa ferramenta fornecendo provas verificáveis da execução de modelos de aprendizado de máquina. Ambos ajudam equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam então ser executados de forma que os resultados possam ser verificados de forma confiável on-chain. Ambos os projetos usam a Open Neural Network Exchange (ONNX) para transformar modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, produzem versões desses modelos que também produzem zk-provas quando executados. EZKL é de código aberto e produz zk-SNARKS, enquanto Giza é de código fechado e produz zk-STARKS. Ambos os projetos atualmente são apenas compatíveis com a EVM.
EZKL demonstrou um progresso significativo nos últimos meses ao aprimorar sua solução zkML, focando principalmente emreduzindo custos, melhorando a segurança, e acelerando a geração de provaEm novembro de 2023, por exemplo, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduz o tempo total de prova em 35% e em janeiro EZKL anunciadoLilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar trabalhos concorrentes ao usar o sistema de prova EZKL. Giza é única, pois, além de fornecer ferramentas para criar modelos verificáveis de aprendizado de máquina, eles também planejam implementar um equivalente web3 deHugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, bem como integrando eventualmente ofertas de computação descentralizada. Em janeiro, EZKL lançou um avaliação de referênciacomparando o desempenho do EZKL, Giza e RiscZero (discutido abaixo). O EZKL demonstrou tempos de prova mais rápidos e uso de memória.
Modulus Labstambém está desenvolvendo uma nova técnica de prova zk feita sob medida para modelos de IA. Modulus publicou um artigo chamadoO Custo da Inteligência(sugerindo os custos incrivelmente altos para executar modelos de IA on-chain), que avaliou os sistemas zk-proof existentes na época para identificar capacidades e gargalos para aprimorar as zk-proofs de modelos de IA. Publicado em janeiro de 2023, o artigo demonstra que as ofertas existentes são simplesmente muito caras e ineficientes para permitir aplicações de IA em grande escala. Baseando-se em sua pesquisa inicial, em novembro, o Modulus@ModulusLabsIntroduzindo Resto, um provador especializado de conhecimento zero construído especificamente para reduzir custos e tempo de prova para modelos de IA com o objetivo de torná-lo economicamente viável para projetos integrar modelos em seus contratos inteligentes em escala. Seu trabalho é fechado e, portanto, não pôde ser comparado com as soluções acima, mas foi recentemente referenciado por Vitalik.postagem no blogsobre cripto e IA.
O desenvolvimento de ferramentas e infraestrutura é fundamental para o crescimento futuro do espaço zkML porque reduz significativamente o atrito para equipes que precisam implantar circuitos zk necessários para executar computação verificável fora da cadeia. A criação de interfaces seguras que permitem que construtores não nativos de cripto que trabalham em aprendizado de máquina tragam seus modelos on-chain permitirá uma maior experimentação de aplicativos com casos de uso verdadeiramente novos. As ferramentas também abordam um grande obstáculo para uma adoção mais ampla de zkML, a falta de desenvolvedores conhecedores e interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.
Soluções adicionais em desenvolvimento, referidas como “coprocessadores,” incluem RiscZero,Axiomae Ritual. O termo coprocessor é principalmente semântica - essas redes desempenham muitos papéis diferentes, incluindo a verificação de cálculos offchain na cadeia. Assim como EZKL, Giza e Modulus, eles visam abstrair completamente o processo de geração de prova de conhecimento zero, criando essencialmente máquinas virtuais de conhecimento zero capazes de executar programas offchain e gerar provas para verificação na cadeia. RiscZero e Axiom podem serviçomodelos de IA simples, pois são destinados a serem coprocessadores mais gerais, enquanto o Ritual é projetado especificamente para uso com modelos de IA.
Inferneté a primeira instanciação do Ritual e inclui um SDK Infernet que permite aos desenvolvedores enviar solicitações de inferência para a rede e receber uma saída e uma prova (opcionalmente) em troca. Um Nó Infernet recebe essas solicitações e lida com o cálculo off-chain antes de retornar uma saída. Por exemplo, um DAO poderia criar um processo para garantir que todas as novas propostas de governança atendam a certas precondições antes de serem submetidas. Cada vez que uma nova proposta é submetida, o contrato de governança aciona uma solicitação de inferência através do Infernet chamando um modelo de IA treinado em governança específico do DAO. O modelo revisa a proposta para garantir que todos os critérios necessários foram submetidos e retorna a saída e a prova, aprovando ou negando a submissão da proposta.
No próximo ano, a equipe da Ritual planeja lançar recursos adicionais que formam uma camada de infraestrutura base chamada de Superchain Ritual. Muitos dos projetos discutidos anteriormente poderiam se integrar ao Ritual como provedores de serviços. Já a equipe da Ritual se integrou ao EZKL para geração de prova e provavelmente em breve adicionará funcionalidades de outros provedores líderes. Os nós da Infernet no Ritual também podem usar GPUs Akash ou io.net e consultar modelos treinados em sub-redes Bittensor. Seu objetivo final é ser o provedor padrão para infraestrutura de IA aberta, capaz de atender a tarefas de aprendizado de máquina e outras tarefas relacionadas à IA de qualquer rede em qualquer carga de trabalho.
zkML ajudaconciliara contradição entre blockchains e IA, onde os primeiros são inerentemente limitados em recursos e os últimos requerem grandes quantidades de computação e dados. Como um dos fundadores da Giza coloque-o, “Os casos de uso são tão abundantes… é quase como perguntar nos primeiros dias do Ethereum quais são os casos de uso dos contratos inteligentes… o que estamos fazendo é apenas expandindo os casos de uso dos contratos inteligentes.” Como destacado acima, no entanto, o desenvolvimento hoje está ocorrendo principalmente no nível de ferramentas e infraestrutura. As aplicações ainda estão na fase exploratória, com equipes desafiadas a demonstrar que o valor gerado ao implementar modelos usando zkML supera a complexidade e os custos envolvidos.
Algumas aplicações hoje incluem:
zkML ainda está na fase experimental, com a maioria dos projetos focados em construir infraestruturas primitivas e provas de conceito. Os desafios de hoje incluem custos computacionais, limitações de memória, complexidade de modelos, ferramentas e infraestruturas limitadas, e talento de desenvolvedor. Em resumo, há consideravelmente mais trabalho a ser feito antes que zkML possa ser implementado em uma escala necessária para produtos de consumo.
À medida que o campo amadurece, no entanto, e essas limitações são abordadas, o zkML se tornará um componente crítico da integração de IA e cripto. Em sua essência, o zkML promete a capacidade de trazer cálculos off-chain de qualquer tamanho on-chain, mantendo as mesmas garantias de segurança ou próximas das garantias de segurança como se o cálculo tivesse sido executado on-chain. Até que essa visão seja realizada, no entanto, os primeiros usuários da tecnologia continuarão a ter que equilibrar as compensações entre a privacidade e segurança do zkML e a eficiência das alternativas.
Uma das integrações mais emocionantes de IA e cripto é a experimentação contínua com Agentes de IA. Os Agentes são bots autônomos capazes de receber, interpretar e executar tarefas usando um modelo de IA. Isso poderia ser qualquer coisa, desde ter um assistente pessoal sempre disponível e ajustado às suas preferências até contratar um agente financeiro que gerencia e ajusta sua carteira de acordo com suas preferências de risco.
Agentes e cripto se encaixam bem por causa da infraestrutura de pagamentos sem permissão e sem confiança que a cripto fornece. Uma vez treinados, os agentes podem receber uma carteira para que possam transacionar com contratos inteligentes por conta própria. Agentes simples hoje, por exemplo, podem rastrear a internet em busca de informações e depois realizar negociações em mercados de previsão com base em um modelo.
Morpheusé um dos mais novos projetos de agente de código aberto que chegará ao mercado na Ethereum e Arbitrum em 2024. Seu white paper foi publicado anonimamente em setembro de 2023, fornecendo a base para uma comunidade se formar e se desenvolver (incluindo figuras notáveis comoErik Vorhees. O white paper inclui um download Protocolo Smart Agent, que é um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa um Classificação de Contrato Inteligentepara ajudar o agente a determinar quais contratos inteligentes são seguros para interagir com base em critérios como o número de transações processadas.
O white paper também fornece um framework para a construção da Rede Morpheus, como as estruturas de incentivo e a infraestrutura necessária para tornar o Protocolo Smart Agent operacional. Isso inclui incentivar os contribuintes a desenvolverem interfaces para interagir com os agentes, APIs para os desenvolvedores criarem aplicativos que possam se conectar aos agentes para que possam interagir entre si, e soluções de nuvem para permitir que os usuários acessem computação e armazenamento necessários para executar um agente em um dispositivo de borda. O financiamento inicial para o projeto foi lançado no início de fevereiro, com o protocolo completo previsto para ser lançado no 2T24.
Rede de Infraestrutura Autônoma Descentralizada (DAIN)é um novo protocolo de infraestrutura de agente construindo uma economia de agente para agente em Solana. DAIN tem como objetivo fazer com que agentes de diferentes empresas possam interagir de forma contínua uns com os outros por meio de uma API universal, abrindo consideravelmente o espaço de design para agentes de IA com foco em implementar agentes capazes de interagir tanto com produtos web2 quanto web3. Em janeiro, a DAIN anunciou seu primeiro parceriacom o Asset Shield permitindo que os usuários adicionem "agentes signatários" às suas multisig que são capazes de interpretar transações e aprovar/negar com base em regras estabelecidas pelo usuário.
Fetch.AI foi um dos primeiros protocolos de Agentes de IA implantados e desenvolveu um ecossistema para construir, implantar e usar Agentes on-chain usando seu token FET e Fetch.AIcarteira. O protocolo fornece um conjunto abrangente de ferramentas e aplicativos para usar Agentes, incluindo funcionalidades na carteira para interagir e ordenar agentes.
Autonolas, cujos fundadores incluem um membro anterior da equipe Fetch, é um mercado aberto para a criação e uso de agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para desenvolvedores construírem agentes de IA que são hospedados offchain e podem ser conectados a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles têm alguns agentes ativos de prova de conceitoprodutosincluindo para uso em mercados de previsão e governança de DAO.
SingularidadeNetestá construindo um mercado descentralizado para agentes de IA onde as pessoas podem implantar agentes de IA focados em tarefas específicas que podem ser contratados por outras pessoas ou agentes para executar tarefas complexas. Outros, como AlteredStateMachine, estão desenvolvendo integrações de Agentes de IA com NFTs. Os usuários criam NFTs com atributos randomizados que lhes conferem pontos fortes e fracos para diferentes tarefas. Esses agentes podem ser treinados para aprimorar certos atributos para usos como jogos, DeFi ou como assistente virtual e negociados com outros usuários.
Coletivamente, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar juntos não apenas para executar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente sofisticados terão a capacidade de cumprir qualquer tarefa do usuário autonomamente. Por exemplo, em vez de ter que garantir que um Agente já tenha integrado com uma API externa (como um site de reserva de viagens) antes de usá-lo, agentes totalmente autônomos terão a capacidade de descobrir como contratar outro agente para integrar a API e depois executar a tarefa. Do ponto de vista do usuário, não haverá necessidade de verificar se um agente pode cumprir uma tarefa, pois o agente pode determinar isso por si próprio.
Em julho de 2023, Laboratórios Lightningimplementou uma implementação de prova de conceito para usar Agents na Lightning Network chamada Suite Bitcoin LangChain. O produto é especialmente interessante, pois tem como objetivo enfrentar um problema crescente no mundo da web 2 -gated e caroChaves de API para aplicativos web.
LangChain resolve isso fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter o Bitcoin, bem como solicitar chaves de API e enviar micropagamentos. Enquanto em trilhos de pagamento tradicionais, pequenos micropagamentos são proibitivos devido a taxas, na Lightning Network, os agentes podem enviar micropagamentos ilimitados diariamente com taxas mínimas. Quando combinado com o framework de API medido de pagamento L402 da LangChain, isso poderia permitir que as empresas ajustassem as taxas de acesso à sua API conforme o uso aumenta e diminui, em vez de definir um padrão único proibitivo de custos.
Em um futuro em que a atividade on-chain é dominada por agentes interagindo com agentes, algo assim será necessário para garantir que os agentes possam interagir uns com os outros de uma forma que não seja proibitiva em termos de custos. Este é um exemplo inicial de como o uso de agentes em trilhos de pagamento sem permissão e econômicos abre as possibilidades para novos mercados e interações econômicas.
O espaço dos Agentes ainda está em estágio inicial. Os projetos estão começando a lançar agentes funcionais que podem lidar com tarefas simples usando sua infraestrutura – que muitas vezes só é acessível a desenvolvedores e usuários sofisticados. Com o tempo, no entanto, um dos maiores impactos que os agentes de IA terão na cripto é as melhorias de UX em todas as verticais. As transações começarão a migrar de ponto e clique para baseadas em texto, com os usuários tendo a capacidade de interagir com agentes on-chain por meio de LLMs. Equipes como Carteira Dawnestão introduzindo carteiras de chat-bot para os usuários interagirem na cadeia.
Além disso, não está claro como os agentes poderiam operar na web 2 onde os trilhos financeiros dependem de instituições bancárias regulamentadas que não operam 24 horas por dia, 7 dias por semana e não podem realizar transações transfronteiriças sem problemas. Lyn AldenDestacou que os trilhos de cripto são especialmente atraentes em comparação com cartões de crédito devido à falta de estornos e à capacidade de processar microtransações. Se os agentes se tornarem um meio mais comum de transação, no entanto, é provável que os provedores de pagamento e aplicativos existentes se movam rapidamente para implementar a infraestrutura necessária para que eles operem nos trilhos financeiros existentes, mitigando alguns dos benefícios do uso de cripto.
Por enquanto, os agentes provavelmente estarão confinados a transações cripto-a-cripto determinísticas, onde uma saída específica é garantida para uma entrada específica. Ambos os modelos, que ditam a capacidade desses agentes de descobrir como executar tarefas complexas, e ferramentas, que expandem o escopo do que eles podem realizar, requerem mais desenvolvimento. Para que os agentes de cripto se tornem úteis fora dos casos de uso de cripto em cadeia, será necessária uma integração e aceitação mais amplas da cripto como forma de pagamento, bem como clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML discutidas acima, atuando de maneira autônoma e não determinística para receber e resolver qualquer tarefa.
A IA introduz na cripto as mesmas inovações que já vemos acontecendo na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão no início de sua evolução e a integração de cripto e IA a curto prazo será principalmente dominada por integrações offchain.
Produtos comoCopilotovai“10x”eficiência do desenvolvedor, comcamada 1seDeFiaplicações já em andamento plataformas de desenvolvimento assistido por IA em parceria com grandes corporações como a Microsoft. Empresas comoCub3.aieMáquina de testeestão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. E os chatbots LLM estão sendo treinados usando dados on-chain, documentos de protocolo e aplicativos para fornecer aos usuários acessibilidade e UX aprimorados.
Para integrações mais avançadas que realmente aproveitam as tecnologias subjacentes da cripto, o desafio continua sendo demonstrar que implementar soluções de IA on-chain é tanto tecnicamente possível quanto economicamente viável em escala. Desenvolvimentos em computação descentralizada, zkML e Agentes de IA apontam para verticais promissoras que estão lançando as bases para um futuro onde cripto e IA estão profundamente interligados.
O surgimento de blockchains públicos é um dos avanços mais profundos na história da ciência da computação. Mas o desenvolvimento da inteligência artificial terá, e já está tendo, um impacto profundo em nosso mundo. Se a tecnologia blockchain fornece um novo modelo para liquidação de transações, armazenamento de dados e design de sistemas, a inteligência artificial é uma revolução na computação, análise e entrega de conteúdo. A inovação nas duas indústrias está desbloqueando novos casos de uso que poderiam acelerar a adoção de ambas nos próximos anos. Este relatório explora as integrações em curso de cripto e IA com foco em novos casos de uso que tentam preencher a lacuna entre os dois, aproveitando o poder de ambos. Especificamente, este relatório examina projetos que desenvolvem protocolos de computação descentralizada, infraestrutura de aprendizado de máquina de conhecimento zero (zkML) e agentes de IA.
Cripto fornece à IA uma camada de liquidação sem permissão, sem confiança e componível. Isso desbloqueia casos de uso, como tornar o hardware mais acessível por meio de sistemas de computação descentralizados, construir agentes de IA que podem executar tarefas complexas que exigem a troca de valor e desenvolver soluções de identidade e procedência para combater ataques Sybil e deep fakes. A IA traz para a cripto muitos dos mesmos benefícios que vemos na Web 2. Isso inclui uma experiência do usuário aprimorada (UX) tanto para usuários quanto para desenvolvedores, graças a modelos de linguagem grandes (ou seja, versões especialmente treinadas do ChatGPT e Copilot) e o potencial de melhorar significativamente a funcionalidade e automação de contratos inteligentes. As blockchains são ambientes transparentes e ricos em dados de que a IA precisa. Mas as blockchains também têm capacidade computacional limitada, um grande obstáculo para a integração direta de modelos de IA.
A força motriz por trás da experimentação contínua e da adoção eventual na intersecção entre Cripto e IA é a mesma que impulsiona grande parte dos casos de uso mais promissores de Cripto - o acesso a uma camada de coordenação sem permissão e sem confiança que facilita melhor a transferência de valor. Dado o enorme potencial, os participantes no espaço precisam entender as maneiras fundamentais nas quais as duas tecnologias se intersectam.
A Inteligência Artificial é a utilização de computação e máquinas para imitar o raciocínio e as habilidades de resolução de problemas dos seres humanos.
As redes neurais são um método de treinamento para modelos de IA. Elas passam as entradas por camadas discretas de algoritmos, refinando-as até que a saída desejada seja produzida. Redes neurais são compostas por equações que possuem pesos que podem ser modificados para alterar a saída. Elas podem exigir quantidades incríveis de dados e computação para serem treinadas, de modo que suas saídas sejam precisas. É uma das maneiras mais comuns pelas quais os modelos de IA são desenvolvidos (o ChatGPT usa um processo de rede neural dependente detransformadores).
O treinamento é o processo pelo qual as redes neurais e outros modelos de IA são desenvolvidos. Requer grandes quantidades de dados para treinar modelos a interpretar corretamente as entradas e produzir saídas precisas. Durante o processo de treinamento, os pesos da equação do modelo são continuamente modificados até que uma saída satisfatória seja produzida. O treinamento pode ser muito caro. O ChatGPT, por exemplo, utilizadezenas de milhares de suas próprias GPUs para processar seus dados. Equipes com menos recursos frequentemente dependem de provedores de computação dedicados como Amazon Web Services, Azure e Google Cloud Providers.
A inferência é o uso real de um modelo de IA para obter uma saída ou resultado (por exemplo, usar o ChatGPT para criar um esboço para um trabalho sobre a interseção de cripto e IA). As inferências são usadas ao longo do processo de treinamento e no produto final. Elas podem ser caras de executar, mesmo após o treinamento ser concluído, devido aos custos computacionais, mas são menos intensivas computacionalmente do que o treinamento.
Provas de conhecimento zero (ZKP) permitem a verificação de uma reivindicação sem revelar as informações subjacentes. Isso é útil na cripto por duas razões principais: 1) privacidade e 2) escalonamento. Para a privacidade, isso permite que os usuários realizem transações sem revelar informações sensíveis, como quanto ETH está em sua carteira. Para o escalonamento, permite que a computação off-chain seja comprovada on-chain mais rapidamente do que ter que reexecutar a computação. Isso permite que blockchains e aplicativos executem computações de forma barata off-chain e depois as verifiquem on-chain. Para obter mais informações sobre o conhecimento zero e seu papel na Máquina Virtual Ethereum, consulte o relatório de Christine KimzkEVMs: O Futuro da Escalabilidade do Ethereum.
Projetos no cruzamento da IA e cripto ainda estão construindo a infraestrutura subjacente necessária para suportar interações de IA on-chain em escala.
Mercados de computação descentralizada estão surgindo para fornecer grandes quantidades de hardware físico, principalmente na forma de unidades de processamento gráfico (GPUs), necessárias para treinar e inferir modelos de IA. Esses mercados de duas faces conectam aqueles que alugam e procuram alugar computação, facilitando a transferência de valor e verificação de computação. Dentro da computação descentralizada, várias subcategorias estão surgindo que fornecem funcionalidades adicionais. Além dos mercados de duas faces, este relatório examinará os provedores de treinamento de aprendizado de máquina que se especializam em serviços de treinamento verificável e ajuste fino de saídas, bem como projetos que trabalham para conectar computação e geração de modelos para alcançar inteligência artificial geral, também frequentemente referida como redes de incentivo à inteligência.
zkML é uma área emergente de foco para projetos que desejam fornecer saídas de modelo verificáveis na cadeia de forma econômica e oportuna. Esses projetos permitem principalmente que aplicativos lidem com solicitações de computação pesadas offchain e, em seguida, publiquem na cadeia uma saída verificável comprovando que a carga de trabalho offchain está completa e precisa. zkML é tanto caro quanto demorado em sua instância atual, mas está sendo cada vez mais usado como uma solução. Isso é evidente no crescente número de integrações entre fornecedores de zkML e aplicativos DeFi/Jogos que desejam aproveitar modelos de IA.
Ampla oferta de computação e a capacidade de verificar essa computação on-chain abre as portas para agentes de IA on-chain. Os agentes são modelos treinados capazes de executar solicitações em nome de um usuário. Os agentes oferecem a oportunidade de melhorar significativamente a experiência on-chain, permitindo que os usuários executem transações complexas apenas falando com um chatbot. No entanto, como existem hoje, os projetos de Agentes ainda estão focados no desenvolvimento da infraestrutura e ferramentas para implantação fácil e rápida.
A IA requer grandes quantidades de computação, tanto para treinar modelos quanto para executar inferências. Ao longo da última década, à medida que os modelos se tornaram mais sofisticados, os requisitos de computação cresceram exponencialmente. A OpenAI, por exemplo, encontrouque entre 2012 e 2018, os requisitos de computação para seus modelos passaram a dobrar a cada dois anos para cada três meses e meio. Isso levou a um aumento na demanda por GPUs, com alguns mineradores de criptomoedas até mesmoreutilizando suas GPUspara fornecer serviços de computação em nuvem (@jeff.washington/2024-02-06-solana-mainnet-beta-outage-report-619bd75b3ce0">saiba mais sobre isso em nosso relatório anual de mineração de Bitcoin). À medida que a competição para acessar computação aumenta e os custos aumentam, vários projetos estão utilizando cripto para fornecer soluções de computação descentralizadas. Eles oferecem computação sob demanda a preços competitivos para que as equipes possam treinar e executar modelos de forma acessível. A compensação, em alguns casos, pode ser desempenho e segurança.
GPUs de última geração, como aqueles produzidospela Nvidia, estão em alta demanda. Em setembro, Tetheradquiridouma participação na Northern Data, uma mineradora alemã de Bitcoin, teria pago $420 milhões para adquirir 10.000 H100 GPUs (uma das GPUs mais avançadas para treinamento de IA).EsperarOs tempos para o melhor hardware em classe podem ser de pelo menos seis meses e, em muitos casos, mais longos. Para piorar a situação, as empresas muitas vezes são obrigadas a assinar contratos de longo prazo para quantidades de computação que talvez nem usem. Isso pode levar a situações em que há computação disponível, mas não está disponível no mercado. Sistemas de computação descentralizados ajudam a resolver essas ineficiências de mercado, criando um mercado secundário onde os proprietários de computação podem sublocar sua capacidade excedente a qualquer momento, desbloqueando novos suprimentos.
Além da precificação competitiva e da acessibilidade, a proposição de valor chave da computação descentralizada é a resistência à censura. O desenvolvimento de IA de ponta está cada vez mais dominado por grandes empresas de tecnologia com acesso incomparável à computação e dados. O primeiro tema-chave destacado no Relatório do Índice de AIO relatório anual de 2023 é que a indústria está cada vez mais superando a academia no desenvolvimento de modelos de IA, centralizando o controle nas mãos de alguns líderes de tecnologia. Isso levantou preocupações sobre sua capacidade de ter uma influência desproporcional na ditadura das normas e valores que sustentam os modelos de IA, especialmente após a regulamentaçãoempurrapor essas mesmas empresas de tecnologia para restringir o desenvolvimento de IA fora de seu controle.
Vários modelos de computação descentralizada surgiram nos últimos anos, cada um com seu próprio foco e compensações.
Projetos como Akash, io.net, iExec, Cudos e muitos outros são aplicações de computação descentralizadas que oferecem acesso a, ou em breve oferecerão acesso a, computação especializada para treinamento de IA e inferências, além de soluções de dados e computação generalizada.
Akash é atualmente a única plataforma "supercloud" totalmente de código aberto. É uma rede de prova de participação que utiliza o Cosmos SDK. AKT, o token nativo da Akash, é usado para garantir a rede, como forma de pagamento e para incentivar a participação. Akash lançou sua primeira mainnet em 2020, focada em fornecer um mercado de computação em nuvem sem permissão, apresentando inicialmente serviços de armazenamento e locação de CPU. Em junho de 2023, Akash lançadouma nova testnet focada em GPUs e em setembrolançadosua mainnet de GPU permitindo aos usuários alugar GPUs para treinamento de IA e inferências.
Existem dois atores principais no ecossistema Akash - Inquilinos e Fornecedores. Inquilinos são usuários da rede Akash que desejam comprar recursos computacionais. Fornecedores são os fornecedores de computação. Para combinar inquilinos e fornecedores, Akash depende de um processo de leilão reverso. Os inquilinos enviam seus requisitos de computação, nos quais podem especificar certas condições, como a localização dos servidores ou o tipo de hardware que realiza a computação, e o valor que estão dispostos a pagar. Os fornecedores então enviam seu preço solicitado, sendo o lance mais baixo o que recebe a tarefa.
Os validadores Akash mantêm a integridade da rede. O conjunto de validadores está atualmente limitado a 100 com planos de aumentar incrementalmente ao longo do tempo. Qualquer pessoa pode se tornar um validador apostando mais AKT do que o validador atual com a menor quantidade de AKT apostada. Os detentores de AKT também podem delegar seu AKT a validadores. Taxas de transação e recompensas de bloco para a rede são distribuídas no AKT. Além disso, para cada locação, a rede Akash ganha uma "taxa de take" a uma taxa determinada pela comunidade que é distribuída aos detentores da AKT.
Os mercados de computação descentralizada visam preencher as ineficiências no mercado de computação existente. As restrições de oferta estão levando as empresas a acumular computação além do que podem precisar, e a oferta é ainda mais restrita devido à estrutura de contratos com provedores de nuvem que prendem os clientes em contratos de longo prazo, mesmo que o acesso contínuo possa não ser necessário. As plataformas de computação descentralizada desbloqueiam novas ofertas, permitindo que qualquer pessoa no mundo com a computação exigida se torne um fornecedor.
Resta saber se o aumento da demanda por GPUs para treinamento de IA se traduzirá em uso de rede de longo prazo no Akash. A Akash há muito tempo fornece um mercado para CPUs, por exemplo, oferecendo serviços semelhantes como alternativas centralizadas em 70-80%desconto. No entanto, os preços mais baixos não resultaram em uma adoção significativa. Os contratos ativos na rede se estabilizaram, com uma média de apenas 33% de computação, 16% de memória e 13% de armazenamento para o segundo trimestre de 2023. Embora essas sejam métricas impressionantes para a adoção on-chain (para referência, o principal provedor de armazenamento Filecoin teve12.6% de utilização de armazenamentono terceiro trimestre de 2023), isso demonstra que o fornecimento continua a superar a demanda por esses produtos.
Faz pouco mais de meio ano desde o lançamento da rede GPU da Akash e ainda é muito cedo para medir com precisão a adoção a longo prazo. Um sinal de demanda, a utilização média da GPU até o momento é de 44% e maior do que CPUs, memória e armazenamento. Isso é impulsionado principalmente pela demanda pelos GPUs de mais alta qualidade (como os A100s), com mais90%alugado.
Os gastos diários com Akash também aumentaram, quase dobrando em relação aos pré-GPUs. Isso pode ser parcialmente atribuído a um aumento em outros serviços utilizados, especialmente CPUs, mas é principalmente resultado do novo uso de GPUs.
Os preços correspondem (ou, em alguns casos, são ligeiramente mais caros) aos de seus concorrentes centralizados, como Lambda Cloud e Vast.ai. A incrível demanda pelas GPUs de ponta (como H100 e A100s) significa que a maioria dos proprietários desse equipamento tem pouco interesse em listá-lo em mercados onde enfrentam preços competitivos.
Embora o interesse inicial seja promissor, ainda existem barreiras à adoção (discutidas mais abaixo). As redes de computação descentralizadas precisarão fazer mais para gerar demanda e oferta, e as equipes estão experimentando a melhor forma de atrair novos usuários. No início de 2024, por exemplo, Akash passouProposta 240aumentar as emissões de AKT para os fornecedores de GPU e incentivar mais oferta, visando especificamente GPUs de alta qualidade. As equipes também estão trabalhando no lançamento de modelos de prova de conceito para demonstrar aos usuários em potencial as capacidades em tempo real de suas redes. Akash é formaçãoseu próprio modelo fundamental e já lançouchatbotegeração de imagem ofertas que criam saídas usando GPUs Akash. Da mesma forma, io.net tem desenvolvidoum modelo de difusão estável e está sendo implementadonovas funcionalidades de rede que imitam melhor o desempenho e a escala dos datacenters de GPU tradicionais.
Além das plataformas de computação generalizadas que podem atender às necessidades de IA, também estão surgindo um conjunto de fornecedores especializados de GPU de IA focados no treinamento de modelos de aprendizado de máquina. A Gensyn, por exemplo, é “coordenando eletricidade e hardware para construir inteligência coletiva" com a visão de que, "se alguém quer treinar algo, e alguém está disposto a treiná-lo, então esse treinamento deve ser permitido acontecer".
O protocolo tem quatro atores principais: remetentes, solucionadores, verificadores e denunciantes. Os remetentes enviam tarefas para a rede com solicitações de treinamento. Essas tarefas incluem o objetivo do treinamento, o modelo a ser treinado e os dados do treinamento. Como parte do processo de envio, os enviadores pagam uma taxa adiantada pelo cálculo estimado exigido do solver.
Uma vez enviadas, as tarefas são atribuídas aos solucionadores que conduzem o treinamento real dos modelos. Os solvers então enviam as tarefas concluídas para verificadores que são responsáveis por verificar o treinamento para garantir que ele foi feito corretamente. Os denunciantes são responsáveis por garantir que os verificadores se comportem honestamente. Para incentivar os denunciantes a participar da rede, Gensyn planeja fornecer periodicamente provas propositalmente incorretas que recompensam os denunciantes por pegá-los.
Além de fornecer computação para cargas de trabalho relacionadas à IA, a proposição de valor-chave da Gensyn é seu sistema de verificação, que ainda está em desenvolvimento. A verificação é necessária para garantir que os cálculos externos feitos pelos provedores de GPU sejam executados corretamente (ou seja, para garantir que o modelo de um usuário seja treinado da maneira desejada). A Gensyn aborda esse problema com uma abordagem única, aproveitando métodos de verificação inovadores chamados "Prova probabilística de aprendizado, protocolo de pinpoint baseado em gráfico e jogos de incentivo no estilo Truebit". Este é um modo de resolução otimista que permite a um verificador confirmar que um solucionador executou corretamente um modelo sem ter que executá-lo completamente novamente, o que é um processo caro e ineficiente.
Além do seu método inovador de verificação, Gensyn também reivindicaçõesser economicamente viável em relação às alternativas centralizadas e aos concorrentes de cripto - fornecendo treinamento de ML com até 80% mais barato do que a AWS, superando projetos semelhantes como o Truebit em testes.
Se esses resultados iniciais podem ser replicados em escala em uma rede descentralizada ainda está por ver. Gensyn quer aproveitar o poder de computação excedente de fornecedores como pequenos centros de dados, usuários comuns e, no futuro, até mesmo dispositivos móveis menores como celulares. No entanto, como a própria equipe do Gensyn temadmitido, contar com provedores de computação heterogêneos introduz vários novos desafios.
Para fornecedores centralizados como Google Cloud Providers e Coreweave, o cálculo é caro, enquanto a comunicação entre esse cálculo (largura de banda e latência) é barata. Esses sistemas são projetados para permitir a comunicação entre o hardware o mais rápido possível. Gensyn inverte esse framework, reduzindo os custos de cálculo ao permitir que qualquer pessoa no mundo forneça GPUs, mas aumentando os custos de comunicação, já que a rede agora deve coordenar trabalhos de cálculo em hardware heterogêneo localizado longe um do outro. Gensyn ainda não foi lançado, mas é uma prova de conceito do que pode ser possível ao construir protocolos de treinamento de aprendizado de máquina descentralizados.
As plataformas de computação descentralizada também estão abrindo as possibilidades de design para métodos de criação de inteligência artificial. Bittensor é um protocolo de computação descentralizada construído sobre Substrate que é tentando respondera questão de, “como podemos transformar a IA em uma abordagem colaborativa?” Bittensor tem como objetivo descentralizar e mercantilizar a geração de inteligência artificial. Lançado em 2021, o protocolo deseja aproveitar o poder de modelos colaborativos de aprendizado de máquina para iterar continuamente e produzir uma inteligência artificial melhor.
Bittensor se inspira no Bitcoin, com um fornecimento de vinte e um milhões de sua moeda nativa TAO e um ciclo de halving de quatro anos (o primeiro halving será em 2025). Em vez de usar Proof of Work para gerar o nonce correto e ganhar uma recompensa de bloco, Bittensor depende do “Proof of Intelligence”, exigindo que os mineradores executem modelos que produzam saídas em resposta a solicitações de inferência.
Bittensor originalmente dependia de um modelo de mistura de especialistas (MoE) para produzir saídas. Quando as solicitações de inferência são enviadas, em vez de depender de um modelo generalizado, os modelos do MoE retransmitem a solicitação de inferência para os modelos mais precisos para um determinado tipo de entrada. Pense em construir uma casa onde você contrata uma variedade de especialistas para diferentes aspectos do processo de construção (ex: arquitetos, engenheiros, pintores, trabalhadores da construção etc...). O MoE aplica isso a modelos de aprendizado de máquina, tentando aproveitar as saídas de diferentes modelos dependendo da entrada. Como fundador da Bittensor Ala Shaabana explicado, é como 'falar com uma sala de pessoas inteligentes e obter a melhor resposta em vez de falar com uma pessoa.' Devido adesafios Com a garantia do roteamento adequado, sincronização de mensagens com o modelo correto e incentivo, essa abordagem foi deixada de lado até que o projeto seja mais desenvolvido.
Existem dois atores principais na rede Bittensor: validadores e mineradores. Os validadores são responsáveis por enviar solicitações de inferência aos mineradores, revisar suas saídas e classificá-las com base na qualidade de suas respostas. Para garantir que suas classificações sejam confiáveis, os validadores recebem pontuações de “vtrust” com base em quão bem suas classificações se alinham com as classificações de outros validadores. Quanto maior a pontuação de vtrust de um validador, mais emissões de TAO eles ganham. Isso é para incentivar os validadores a alcançar consenso sobre as classificações do modelo ao longo do tempo, à medida que mais validadores alcançam acordo sobre as classificações, maior serão suas pontuações individuais de vtrust.
Os mineradores, também chamados de servidores, são participantes da rede que executam os modelos de aprendizado de máquina reais. Os mineradores competem entre si para fornecer aos validadores as saídas mais precisas para uma determinada consulta, ganhando mais emissões de TAO quanto mais precisa for sua saída. Os mineradores podem gerar essas saídas da maneira que desejarem. Por exemplo, é inteiramente possível em um cenário futuro que um minerador do Bittensor possa ter treinado modelos anteriormente no Gensyn que eles usam para ganhar emissões de TAO.
Hoje, a maioria das interações acontece diretamente entre validadores e mineradores. Validadores enviam inputs para os mineradores e solicitam outputs (ou seja, treinam o modelo). Uma vez que um validador consultou os mineradores na rede e recebeu suas respostas, eles classificam os mineradores e enviam suas classificações para a rede.
Essa interação entre validadores (que dependem de PoS) e mineradores (que dependem do Modelo de Prova, uma forma de PoW) - é chamada de Consenso Yuma. Ele busca incentivar os mineradores a produzir as melhores saídas para ganhar emissões de TAO e os validadores a classificar com precisão as saídas dos mineradores para ganhar uma pontuação de vtrust mais alta e aumentar suas recompensas de TAO, formando o mecanismo de consenso da rede.
As interações no Bittensor consistem principalmente de validadores enviando solicitações para mineradores e avaliando suas saídas. À medida que a qualidade dos mineradores contribuintes aumenta e a inteligência geral da rede cresce, no entanto, o Bittensor criará uma camada de aplicativo em cima de sua pilha existente para que os desenvolvedores possam construir aplicativos que consultem a rede Bittensor.
Em outubro de 2023, a Bittensor concluiu um passo importante para alcançar isso com o introduçãode sub-redes por meio de sua atualização Revolution. As sub-redes são redes individuais no Bittensor que incentivam comportamentos específicos. A Revolution abre a rede para qualquer pessoa interessada em criar uma sub-rede. Nos meses desde o seu lançamento, mais de 32 sub-redes foram lançados, incluindo aqueles para solicitação de texto, raspagem de dados, geração de imagens e armazenamento. À medida que as sub-redes amadurecem e se tornam prontas para o produto, os criadores de sub-redes também criarão integrações de aplicativos, permitindo que as equipes criem aplicativos que consultem uma sub-rede específica. Algumas aplicações (chatbot, gerador de imagens, bot de resposta do Twitter, mercado de previsão) existem hoje, mas não há incentivos formais para os validadores aceitarem e transmitirem essas consultas além das bolsas da fundação Bittensor.
Para fornecer uma ilustração mais clara, aqui está um exemplo de como o Bittensor pode funcionar uma vez que as aplicações estejam integradas na rede.
Sub-redes ganham TAO com base em seu desempenho avaliado pelo rede raiz. A rede raiz fica no topo de todas as sub-redes, atuando essencialmente como um tipo especial de sub-rede, e é gerida pelos 64 maiores validadores de sub-redes por participação. Os validadores da rede raiz classificam as sub-redes com base em seu desempenho e distribuem as emissões do TAO para as sub-redes periodicamente. Dessa forma, as sub-redes individuais atuam como os mineradores da rede raiz.
Bittensor ainda está passando por dores de crescimento à medida que expande a funcionalidade do protocolo para incentivar a geração de inteligência em várias sub-redes. Os mineradores continuam a criar novas formas de atacar a rede para ganhar mais recompensas TAO, por exemplo, ligeiramente.modificandoa saída de uma execução de inferência altamente avaliada pelo seu modelo e, em seguida, submetendo várias variações. Propostas de governança que impactam toda a rede só podem ser submetidas e implementadas pelo Triunvirato, que é composta inteiramente pelos stakeholders da Fundação Opentensor (importante notar que as propostas requerem aprovação pela BittensorSenadocomposto por validadores Bittensor antes da implementação). E a tokenomia do projeto está em processo de reformulação para melhorar os incentivos para o uso do TAO em sub-redes. O projeto também está ganhando rapidamente notoriedade por sua abordagem única, com o CEO de um dos sites de IA mais popularesHuggingFaceindicando que a Bittensor deve adicionar seus recursos ao site.
Em um recentemente publicado peçapor um dev central chamado "Bittensor Paradigm", a equipe apresenta sua visão para o Bittensor evoluir eventualmente para ser "agnóstico em relação ao que está sendo medido". Na teoria, isso poderia permitir que o Bittensor desenvolvesse sub-redes incentivando qualquer tipo de comportamento, tudo alimentado por TAO. Permanecem consideráveis restrições práticas - especialmente demonstrar que essas redes são capazes de escalar para lidar com um conjunto tão diversificado de processos e que os incentivos subjacentes impulsionam o progresso que supera as ofertas centralizadas.
As seções acima fornecem uma visão geral de alto nível dos vários tipos de protocolos de computação de inteligência artificial descentralizada em desenvolvimento. Embora estejam em estágios iniciais de desenvolvimento e adoção, eles fornecem a base de um ecossistema que poderia eventualmente facilitar a criação de "blocos de construção de IA", como o conceito de "Legos de Dinheiro" da DeFi. A composabilidade das blockchains sem permissão abre a possibilidade para que cada protocolo se construa em cima do outro para fornecer um ecossistema de inteligência artificial descentralizada mais abrangente.
Por exemplo, aqui está uma maneira pela qual Akash, Gensyn e Bittensor podem interagir para responder a uma solicitação de inferência.
Para ser claro, este é simplesmente um exemplo do que poderia ser possível no futuro, não uma representação do ecossistema atual, parcerias existentes ou resultados prováveis. Restrições à interoperabilidade, bem como outras considerações descritas abaixo, limitam consideravelmente as possibilidades de integração hoje. Além disso, a fragmentação da liquidez e a necessidade de usar vários tokens podem ser prejudiciais para a experiência do usuário, algo que tem sidoapontoupelos fundadores tanto da Akash quanto da Bittensor.
Além da computação, vários outros serviços de infraestrutura descentralizada estão sendo lançados para apoiar o ecossistema de IA emergente da cripto. Listar todos eles está além do escopo deste relatório, mas alguns exemplos interessantes e ilustrativos incluem:
Coletivamente, esses apontam para as oportunidades quase infinitas de explorar modelos de mercado descentralizados que suportam modelos de IA, ou a infraestrutura circundante necessária para desenvolvê-los. Por enquanto, esses projetos estão principalmente na fase de prova de conceito e muito mais pesquisa e desenvolvimento são necessários para demonstrar que podem operar na escala necessária para fornecer serviços abrangentes de IA.
As ofertas de computação descentralizada ainda estão em estágios iniciais de desenvolvimento. Elas estão apenas começando a disponibilizar acesso a computação de ponta capaz de treinar os modelos de IA mais poderosos em produção. Para ganhar uma participação de mercado significativa, elas precisarão demonstrar vantagens práticas em comparação com as alternativas centralizadas. Possíveis gatilhos para uma adoção mais ampla incluem:
Contratos inteligentes são um bloco de construção fundamental de qualquer ecossistema de blockchain. Dadas um conjunto específico de condições, eles são executados automaticamente e reduzem ou removem a necessidade de uma terceira parte confiável, possibilitando a criação de aplicativos descentralizados complexos, como os vistos em DeFi. No entanto, da forma como existem em sua maior parte hoje, os contratos inteligentes ainda são limitados em sua funcionalidade, pois são executados com base em parâmetros predefinidos que precisam ser atualizados.
Por exemplo, um contrato inteligente de protocolo de empréstimo/empréstimo é implantado com especificações sobre quando liquidar uma posição com base em determinadas taxas de empréstimo para valor. Embora úteis em um ambiente estático, em uma situação dinâmica onde o risco está constantemente mudando, esses contratos inteligentes devem ser continuamente atualizados para considerar as mudanças na tolerância ao risco, criando desafios para contratos que não são governados por processos centralizados. DAOs, por exemplo, que dependem de processos de governança descentralizados, podem não ser capazes de reagir rapidamente o suficiente para responder a riscos sistêmicos.
Contratos inteligentes que integram IA (ou seja, modelos de aprendizado de máquina) são uma maneira possível de aprimorar a funcionalidade, segurança e eficiência, ao mesmo tempo em que melhoram a experiência geral do usuário. Essas integrações também introduzem riscos adicionais, no entanto, pois é impossível garantir que os modelos que sustentam esses contratos inteligentes não possam ser explorados ou considerar situações de longa cauda (que são notoriamente difíceis de treinar modelos dados osescassez de entradas de dadospara eles).
A aprendizagem automática requer grandes quantidades de cálculo para executar modelos complexos, o que impede que os modelos de IA sejam executados diretamente dentro de contratos inteligentes devido aos altos custos. Um protocolo DeFi que fornece aos usuários acesso a um modelo de otimização de rendimento, por exemplo, teria dificuldade em executar esse modelo on-chain sem ter que pagar taxas de gás proibitivamente altas. Uma solução é aumentar o poder computacional da blockchain subjacente. No entanto, isso também aumenta as demandas no conjunto de validadores da cadeia, potencialmente minando as propriedades de descentralização. Em vez disso, alguns projetos estão explorando o uso de zkML para verificar saídas de maneira confiável sem a necessidade de computação intensiva on-chain.
Um comumenteUm exemplo compartilhado que ilustra a utilidade do zkML é quando um usuário precisa que outra pessoa execute dados por meio de um modelo e também verifique se a contraparte realmente executou o modelo correto. Talvez um desenvolvedor esteja usando um provedor de computação descentralizado para treinar seus modelos e esteja preocupado que o provedor esteja tentando reduzir custos usando um modelo mais barato com uma diferença quase imperceptível na saída. O zkML permite que o provedor de computação execute os dados por meio de seus modelos e depois gere uma prova que pode ser verificada em cadeia para provar que a saída do modelo para a entrada fornecida está correta. Neste caso, o provedor do modelo teria a vantagem adicional de poder oferecer seus modelos sem ter que revelar os pesos subjacentes que produzem a saída.
O oposto também poderia ser feito. Se um usuário quiser executar um modelo usando seus dados, mas não quiser que o projeto que fornece o modelo tenha acesso aos seus dados devido a preocupações com a privacidade (ou seja, no caso de um exame médico ou informações comerciais proprietárias), então o usuário poderia executar o modelo em seus dados sem compartilhá-lo e depois verificar se executou o modelo correto com uma prova. Essas possibilidades expandem consideravelmente o espaço de design para a integração da funcionalidade de IA e contrato inteligente, enfrentando restrições computacionais proibitivas.
Dado o estágio inicial do espaço zkML, o desenvolvimento está principalmente focado em construir a infraestrutura e ferramentas necessárias para as equipes converterem seus modelos e saídas em provas que podem ser verificadas na cadeia. Esses produtos abstraem o aspecto de conhecimento zero do desenvolvimento o máximo possível.
EZKLeGizasão dois projetos construindo essa ferramenta fornecendo provas verificáveis da execução de modelos de aprendizado de máquina. Ambos ajudam equipes a construir modelos de aprendizado de máquina para garantir que esses modelos possam então ser executados de forma que os resultados possam ser verificados de forma confiável on-chain. Ambos os projetos usam a Open Neural Network Exchange (ONNX) para transformar modelos de aprendizado de máquina escritos em linguagens comuns como TensorFlow e Pytorch em um formato padrão. Em seguida, produzem versões desses modelos que também produzem zk-provas quando executados. EZKL é de código aberto e produz zk-SNARKS, enquanto Giza é de código fechado e produz zk-STARKS. Ambos os projetos atualmente são apenas compatíveis com a EVM.
EZKL demonstrou um progresso significativo nos últimos meses ao aprimorar sua solução zkML, focando principalmente emreduzindo custos, melhorando a segurança, e acelerando a geração de provaEm novembro de 2023, por exemplo, a EZKL integrou uma nova biblioteca de GPU de código aberto que reduz o tempo total de prova em 35% e em janeiro EZKL anunciadoLilith, uma solução de software para integrar clusters de computação de alto desempenho e orquestrar trabalhos concorrentes ao usar o sistema de prova EZKL. Giza é única, pois, além de fornecer ferramentas para criar modelos verificáveis de aprendizado de máquina, eles também planejam implementar um equivalente web3 deHugging Face, abrindo um mercado de usuários para colaboração zkML e compartilhamento de modelos, bem como integrando eventualmente ofertas de computação descentralizada. Em janeiro, EZKL lançou um avaliação de referênciacomparando o desempenho do EZKL, Giza e RiscZero (discutido abaixo). O EZKL demonstrou tempos de prova mais rápidos e uso de memória.
Modulus Labstambém está desenvolvendo uma nova técnica de prova zk feita sob medida para modelos de IA. Modulus publicou um artigo chamadoO Custo da Inteligência(sugerindo os custos incrivelmente altos para executar modelos de IA on-chain), que avaliou os sistemas zk-proof existentes na época para identificar capacidades e gargalos para aprimorar as zk-proofs de modelos de IA. Publicado em janeiro de 2023, o artigo demonstra que as ofertas existentes são simplesmente muito caras e ineficientes para permitir aplicações de IA em grande escala. Baseando-se em sua pesquisa inicial, em novembro, o Modulus@ModulusLabsIntroduzindo Resto, um provador especializado de conhecimento zero construído especificamente para reduzir custos e tempo de prova para modelos de IA com o objetivo de torná-lo economicamente viável para projetos integrar modelos em seus contratos inteligentes em escala. Seu trabalho é fechado e, portanto, não pôde ser comparado com as soluções acima, mas foi recentemente referenciado por Vitalik.postagem no blogsobre cripto e IA.
O desenvolvimento de ferramentas e infraestrutura é fundamental para o crescimento futuro do espaço zkML porque reduz significativamente o atrito para equipes que precisam implantar circuitos zk necessários para executar computação verificável fora da cadeia. A criação de interfaces seguras que permitem que construtores não nativos de cripto que trabalham em aprendizado de máquina tragam seus modelos on-chain permitirá uma maior experimentação de aplicativos com casos de uso verdadeiramente novos. As ferramentas também abordam um grande obstáculo para uma adoção mais ampla de zkML, a falta de desenvolvedores conhecedores e interessados em trabalhar na interseção de conhecimento zero, aprendizado de máquina e criptografia.
Soluções adicionais em desenvolvimento, referidas como “coprocessadores,” incluem RiscZero,Axiomae Ritual. O termo coprocessor é principalmente semântica - essas redes desempenham muitos papéis diferentes, incluindo a verificação de cálculos offchain na cadeia. Assim como EZKL, Giza e Modulus, eles visam abstrair completamente o processo de geração de prova de conhecimento zero, criando essencialmente máquinas virtuais de conhecimento zero capazes de executar programas offchain e gerar provas para verificação na cadeia. RiscZero e Axiom podem serviçomodelos de IA simples, pois são destinados a serem coprocessadores mais gerais, enquanto o Ritual é projetado especificamente para uso com modelos de IA.
Inferneté a primeira instanciação do Ritual e inclui um SDK Infernet que permite aos desenvolvedores enviar solicitações de inferência para a rede e receber uma saída e uma prova (opcionalmente) em troca. Um Nó Infernet recebe essas solicitações e lida com o cálculo off-chain antes de retornar uma saída. Por exemplo, um DAO poderia criar um processo para garantir que todas as novas propostas de governança atendam a certas precondições antes de serem submetidas. Cada vez que uma nova proposta é submetida, o contrato de governança aciona uma solicitação de inferência através do Infernet chamando um modelo de IA treinado em governança específico do DAO. O modelo revisa a proposta para garantir que todos os critérios necessários foram submetidos e retorna a saída e a prova, aprovando ou negando a submissão da proposta.
No próximo ano, a equipe da Ritual planeja lançar recursos adicionais que formam uma camada de infraestrutura base chamada de Superchain Ritual. Muitos dos projetos discutidos anteriormente poderiam se integrar ao Ritual como provedores de serviços. Já a equipe da Ritual se integrou ao EZKL para geração de prova e provavelmente em breve adicionará funcionalidades de outros provedores líderes. Os nós da Infernet no Ritual também podem usar GPUs Akash ou io.net e consultar modelos treinados em sub-redes Bittensor. Seu objetivo final é ser o provedor padrão para infraestrutura de IA aberta, capaz de atender a tarefas de aprendizado de máquina e outras tarefas relacionadas à IA de qualquer rede em qualquer carga de trabalho.
zkML ajudaconciliara contradição entre blockchains e IA, onde os primeiros são inerentemente limitados em recursos e os últimos requerem grandes quantidades de computação e dados. Como um dos fundadores da Giza coloque-o, “Os casos de uso são tão abundantes… é quase como perguntar nos primeiros dias do Ethereum quais são os casos de uso dos contratos inteligentes… o que estamos fazendo é apenas expandindo os casos de uso dos contratos inteligentes.” Como destacado acima, no entanto, o desenvolvimento hoje está ocorrendo principalmente no nível de ferramentas e infraestrutura. As aplicações ainda estão na fase exploratória, com equipes desafiadas a demonstrar que o valor gerado ao implementar modelos usando zkML supera a complexidade e os custos envolvidos.
Algumas aplicações hoje incluem:
zkML ainda está na fase experimental, com a maioria dos projetos focados em construir infraestruturas primitivas e provas de conceito. Os desafios de hoje incluem custos computacionais, limitações de memória, complexidade de modelos, ferramentas e infraestruturas limitadas, e talento de desenvolvedor. Em resumo, há consideravelmente mais trabalho a ser feito antes que zkML possa ser implementado em uma escala necessária para produtos de consumo.
À medida que o campo amadurece, no entanto, e essas limitações são abordadas, o zkML se tornará um componente crítico da integração de IA e cripto. Em sua essência, o zkML promete a capacidade de trazer cálculos off-chain de qualquer tamanho on-chain, mantendo as mesmas garantias de segurança ou próximas das garantias de segurança como se o cálculo tivesse sido executado on-chain. Até que essa visão seja realizada, no entanto, os primeiros usuários da tecnologia continuarão a ter que equilibrar as compensações entre a privacidade e segurança do zkML e a eficiência das alternativas.
Uma das integrações mais emocionantes de IA e cripto é a experimentação contínua com Agentes de IA. Os Agentes são bots autônomos capazes de receber, interpretar e executar tarefas usando um modelo de IA. Isso poderia ser qualquer coisa, desde ter um assistente pessoal sempre disponível e ajustado às suas preferências até contratar um agente financeiro que gerencia e ajusta sua carteira de acordo com suas preferências de risco.
Agentes e cripto se encaixam bem por causa da infraestrutura de pagamentos sem permissão e sem confiança que a cripto fornece. Uma vez treinados, os agentes podem receber uma carteira para que possam transacionar com contratos inteligentes por conta própria. Agentes simples hoje, por exemplo, podem rastrear a internet em busca de informações e depois realizar negociações em mercados de previsão com base em um modelo.
Morpheusé um dos mais novos projetos de agente de código aberto que chegará ao mercado na Ethereum e Arbitrum em 2024. Seu white paper foi publicado anonimamente em setembro de 2023, fornecendo a base para uma comunidade se formar e se desenvolver (incluindo figuras notáveis comoErik Vorhees. O white paper inclui um download Protocolo Smart Agent, que é um LLM de código aberto que pode ser executado localmente, gerenciado pela carteira do usuário e interagir com contratos inteligentes. Ele usa um Classificação de Contrato Inteligentepara ajudar o agente a determinar quais contratos inteligentes são seguros para interagir com base em critérios como o número de transações processadas.
O white paper também fornece um framework para a construção da Rede Morpheus, como as estruturas de incentivo e a infraestrutura necessária para tornar o Protocolo Smart Agent operacional. Isso inclui incentivar os contribuintes a desenvolverem interfaces para interagir com os agentes, APIs para os desenvolvedores criarem aplicativos que possam se conectar aos agentes para que possam interagir entre si, e soluções de nuvem para permitir que os usuários acessem computação e armazenamento necessários para executar um agente em um dispositivo de borda. O financiamento inicial para o projeto foi lançado no início de fevereiro, com o protocolo completo previsto para ser lançado no 2T24.
Rede de Infraestrutura Autônoma Descentralizada (DAIN)é um novo protocolo de infraestrutura de agente construindo uma economia de agente para agente em Solana. DAIN tem como objetivo fazer com que agentes de diferentes empresas possam interagir de forma contínua uns com os outros por meio de uma API universal, abrindo consideravelmente o espaço de design para agentes de IA com foco em implementar agentes capazes de interagir tanto com produtos web2 quanto web3. Em janeiro, a DAIN anunciou seu primeiro parceriacom o Asset Shield permitindo que os usuários adicionem "agentes signatários" às suas multisig que são capazes de interpretar transações e aprovar/negar com base em regras estabelecidas pelo usuário.
Fetch.AI foi um dos primeiros protocolos de Agentes de IA implantados e desenvolveu um ecossistema para construir, implantar e usar Agentes on-chain usando seu token FET e Fetch.AIcarteira. O protocolo fornece um conjunto abrangente de ferramentas e aplicativos para usar Agentes, incluindo funcionalidades na carteira para interagir e ordenar agentes.
Autonolas, cujos fundadores incluem um membro anterior da equipe Fetch, é um mercado aberto para a criação e uso de agentes de IA descentralizados. A Autonolas também fornece um conjunto de ferramentas para desenvolvedores construírem agentes de IA que são hospedados offchain e podem ser conectados a várias blockchains, incluindo Polygon, Ethereum, Gnosis Chain e Solana. Atualmente, eles têm alguns agentes ativos de prova de conceitoprodutosincluindo para uso em mercados de previsão e governança de DAO.
SingularidadeNetestá construindo um mercado descentralizado para agentes de IA onde as pessoas podem implantar agentes de IA focados em tarefas específicas que podem ser contratados por outras pessoas ou agentes para executar tarefas complexas. Outros, como AlteredStateMachine, estão desenvolvendo integrações de Agentes de IA com NFTs. Os usuários criam NFTs com atributos randomizados que lhes conferem pontos fortes e fracos para diferentes tarefas. Esses agentes podem ser treinados para aprimorar certos atributos para usos como jogos, DeFi ou como assistente virtual e negociados com outros usuários.
Coletivamente, esses projetos vislumbram um futuro ecossistema de agentes capazes de trabalhar juntos não apenas para executar tarefas, mas também para ajudar a construir uma inteligência artificial geral. Agentes verdadeiramente sofisticados terão a capacidade de cumprir qualquer tarefa do usuário autonomamente. Por exemplo, em vez de ter que garantir que um Agente já tenha integrado com uma API externa (como um site de reserva de viagens) antes de usá-lo, agentes totalmente autônomos terão a capacidade de descobrir como contratar outro agente para integrar a API e depois executar a tarefa. Do ponto de vista do usuário, não haverá necessidade de verificar se um agente pode cumprir uma tarefa, pois o agente pode determinar isso por si próprio.
Em julho de 2023, Laboratórios Lightningimplementou uma implementação de prova de conceito para usar Agents na Lightning Network chamada Suite Bitcoin LangChain. O produto é especialmente interessante, pois tem como objetivo enfrentar um problema crescente no mundo da web 2 -gated e caroChaves de API para aplicativos web.
LangChain resolve isso fornecendo aos desenvolvedores um conjunto de ferramentas que permitem aos agentes comprar, vender e manter o Bitcoin, bem como solicitar chaves de API e enviar micropagamentos. Enquanto em trilhos de pagamento tradicionais, pequenos micropagamentos são proibitivos devido a taxas, na Lightning Network, os agentes podem enviar micropagamentos ilimitados diariamente com taxas mínimas. Quando combinado com o framework de API medido de pagamento L402 da LangChain, isso poderia permitir que as empresas ajustassem as taxas de acesso à sua API conforme o uso aumenta e diminui, em vez de definir um padrão único proibitivo de custos.
Em um futuro em que a atividade on-chain é dominada por agentes interagindo com agentes, algo assim será necessário para garantir que os agentes possam interagir uns com os outros de uma forma que não seja proibitiva em termos de custos. Este é um exemplo inicial de como o uso de agentes em trilhos de pagamento sem permissão e econômicos abre as possibilidades para novos mercados e interações econômicas.
O espaço dos Agentes ainda está em estágio inicial. Os projetos estão começando a lançar agentes funcionais que podem lidar com tarefas simples usando sua infraestrutura – que muitas vezes só é acessível a desenvolvedores e usuários sofisticados. Com o tempo, no entanto, um dos maiores impactos que os agentes de IA terão na cripto é as melhorias de UX em todas as verticais. As transações começarão a migrar de ponto e clique para baseadas em texto, com os usuários tendo a capacidade de interagir com agentes on-chain por meio de LLMs. Equipes como Carteira Dawnestão introduzindo carteiras de chat-bot para os usuários interagirem na cadeia.
Além disso, não está claro como os agentes poderiam operar na web 2 onde os trilhos financeiros dependem de instituições bancárias regulamentadas que não operam 24 horas por dia, 7 dias por semana e não podem realizar transações transfronteiriças sem problemas. Lyn AldenDestacou que os trilhos de cripto são especialmente atraentes em comparação com cartões de crédito devido à falta de estornos e à capacidade de processar microtransações. Se os agentes se tornarem um meio mais comum de transação, no entanto, é provável que os provedores de pagamento e aplicativos existentes se movam rapidamente para implementar a infraestrutura necessária para que eles operem nos trilhos financeiros existentes, mitigando alguns dos benefícios do uso de cripto.
Por enquanto, os agentes provavelmente estarão confinados a transações cripto-a-cripto determinísticas, onde uma saída específica é garantida para uma entrada específica. Ambos os modelos, que ditam a capacidade desses agentes de descobrir como executar tarefas complexas, e ferramentas, que expandem o escopo do que eles podem realizar, requerem mais desenvolvimento. Para que os agentes de cripto se tornem úteis fora dos casos de uso de cripto em cadeia, será necessária uma integração e aceitação mais amplas da cripto como forma de pagamento, bem como clareza regulatória. No entanto, à medida que esses componentes se desenvolvem, os agentes estão prontos para se tornar um dos maiores consumidores de computação descentralizada e soluções zkML discutidas acima, atuando de maneira autônoma e não determinística para receber e resolver qualquer tarefa.
A IA introduz na cripto as mesmas inovações que já vemos acontecendo na web2, aprimorando tudo, desde o desenvolvimento de infraestrutura até a experiência do usuário e acessibilidade. No entanto, os projetos ainda estão no início de sua evolução e a integração de cripto e IA a curto prazo será principalmente dominada por integrações offchain.
Produtos comoCopilotovai“10x”eficiência do desenvolvedor, comcamada 1seDeFiaplicações já em andamento plataformas de desenvolvimento assistido por IA em parceria com grandes corporações como a Microsoft. Empresas comoCub3.aieMáquina de testeestão desenvolvendo integrações de IA para auditoria de contratos inteligentes e monitoramento de ameaças em tempo real para aprimorar a segurança on-chain. E os chatbots LLM estão sendo treinados usando dados on-chain, documentos de protocolo e aplicativos para fornecer aos usuários acessibilidade e UX aprimorados.
Para integrações mais avançadas que realmente aproveitam as tecnologias subjacentes da cripto, o desafio continua sendo demonstrar que implementar soluções de IA on-chain é tanto tecnicamente possível quanto economicamente viável em escala. Desenvolvimentos em computação descentralizada, zkML e Agentes de IA apontam para verticais promissoras que estão lançando as bases para um futuro onde cripto e IA estão profundamente interligados.