A quebra do modelo Manus gera controvérsia sobre o caminho de desenvolvimento da IA; a encriptação totalmente homomórfica pode ser a chave.

O modelo Manus alcança avanços significativos, suscitando controvérsias sobre o caminho de desenvolvimento da IA

Recentemente, o modelo Manus obteve resultados impressionantes nos testes de benchmark GAIA, superando o desempenho de outros grandes modelos de linguagem de mesma categoria. O Manus demonstrou a capacidade de realizar tarefas complexas de forma independente, como lidar com negociações comerciais internacionais, envolvendo análise de cláusulas contratuais, formulação de estratégias e geração de propostas em várias etapas. Em comparação com sistemas tradicionais, a vantagem do Manus reside em sua capacidade de desagregar objetivos de forma dinâmica, raciocínio multimodal e aprendizado aprimorado de memória. Ele pode dividir tarefas complexas em centenas de subtarefas executáveis, ao mesmo tempo em que processa vários tipos de dados, e, através do aprendizado por reforço, melhora continuamente a eficiência da tomada de decisão e reduz a taxa de erros.

O sucesso do Manus gerou discussões na indústria sobre o caminho de desenvolvimento da IA: o futuro será um modelo unificado em direção à inteligência artificial geral (AGI) ou um modelo colaborativo de sistemas multiagentes (MAS)? Esta controvérsia surge da filosofia de design do Manus, que sugere duas possíveis direções de desenvolvimento:

  1. Caminho AGI: Através do aprimoramento contínuo das capacidades de um único sistema inteligente, aproximando-o gradualmente da capacidade de tomada de decisão integrada dos humanos.

  2. Caminho MAS: Usar Manus como um super coordenador, comandando milhares de agentes inteligentes em áreas especializadas para trabalharem em conjunto.

Esta discussão reflete, na verdade, uma contradição central no desenvolvimento da IA: como equilibrar eficiência e segurança. À medida que os sistemas de inteligência isolada se aproximam cada vez mais da AGI, o risco da opacidade em seu processo de decisão também aumenta. Embora a colaboração entre múltiplos agentes possa dispersar riscos, pode também perder momentos críticos de decisão devido a atrasos na comunicação.

Manus traz a luz do amanhecer da AGI, a segurança da IA também merece reflexão

Os avanços do Manus também destacam os riscos potenciais no desenvolvimento da IA, como a violação da privacidade dos dados, o viés algorítmico e os ataques adversariais. Por exemplo, em cenários médicos, o sistema precisa acessar dados genômicos sensíveis dos pacientes; em negociações financeiras, pode envolver informações financeiras de empresas não divulgadas. Além disso, durante o processo de recrutamento, o sistema pode apresentar viés em relação a grupos específicos; na revisão de contratos legais, pode haver uma alta taxa de erro na interpretação de cláusulas de indústrias emergentes. Mais grave ainda, hackers podem interferir no julgamento do sistema durante as negociações, implantando sinais de áudio específicos.

Esses desafios destacam um fato preocupante: quanto mais inteligentes os sistemas de IA, maior é a sua potencial superfície de ataque.

Para enfrentar esses desafios de segurança, a indústria propôs várias soluções, entre as quais a tecnologia de criptografia homomórfica completa (FHE) é vista como um método promissor. A FHE permite realizar cálculos em dados enquanto estão criptografados, o que é crucial para proteger informações sensíveis em sistemas de IA.

Especificamente, o FHE pode melhorar a segurança dos sistemas de IA nas seguintes áreas:

  1. Nível de dados: Todas as informações inseridas pelo usuário (incluindo características biométricas, voz, etc.) são processadas em estado criptografado, mesmo o próprio sistema de IA não consegue descriptografar os dados originais.

  2. Nível de algoritmo: implementar o "treinamento de modelos criptografados" através de FHE, de forma que mesmo os desenvolvedores não consigam observar diretamente o processo de decisão da IA.

  3. Nível de colaboração: A comunicação entre vários agentes inteligentes utiliza criptografia de limiar, de modo que, mesmo que um único nó seja comprometido, não haverá vazamento de dados globais.

Com o rápido desenvolvimento da tecnologia de IA, as questões de segurança tornaram-se cada vez mais importantes. Tecnologias de criptografia avançadas, como a FHE, não apenas resolvem os desafios atuais, mas também estabelecem uma base segura para sistemas de IA mais poderosos no futuro. No caminho para a AGI, essas tecnologias de segurança não são mais uma opção, mas sim uma condição necessária para garantir o funcionamento confiável dos sistemas de IA.

AGI-0.14%
FHE7.9%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 4
  • Partilhar
Comentar
0/400
0xSleepDeprivedvip
· 10h atrás
Ainda está a envolver-se em indicadores técnicos, mais cedo ou mais tarde transformará em máquinas revolucionárias.
Ver originalResponder0
AirdropHunter007vip
· 11h atrás
又有ai来做idiotas了
Ver originalResponder0
TokenVelocityTraumavip
· 11h atrás
Fiquei com a cabeça a andar à roda, será que a IA é multi-plataforma ou integrada...
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)