Profundidade求索(DeepSeek):负责任创新与Gestão de risco的警钟

robot
Geração do resumo em andamento

Fonte: Cointelegraph Texto original: "DeepSeek: O sino de alerta para inovação responsável e gestão de riscos"

Autor da opinião: Dra. Merav Ozair

Desde o seu lançamento a 20 de janeiro, o DeepSeek R1 atraiu uma ampla atenção de usuários, bem como de magnatas tecnológicos globais, governos e formuladores de políticas — desde elogios até ceticismo, desde adoção até proibições, desde o esplendor da inovação até falhas de privacidade e segurança incalculáveis.

Quem está certo? Resposta curta: todos estão certos, e todos estão errados.

Isto não é o "momento Sputnik"

A DeepSeek desenvolveu um modelo de linguagem de grande escala (LLM) cujo desempenho pode rivalizar com o GTPo1 da OpenAI, e o tempo e custo necessários representam apenas uma pequena parte do que a OpenAI (e outras empresas de tecnologia) gastam para desenvolver seu próprio LLM.

Através de uma otimização arquitetónica inteligente, os custos de treino e inferência do modelo foram significativamente reduzidos, permitindo que a DeepSeek desenvolvesse um LLM em 60 dias, com um custo inferior a 6 milhões de dólares.

De facto, o DeepSeek é digno de reconhecimento por procurar ativamente melhores métodos para otimizar a estrutura e o código do modelo. Este é um aviso, mas está longe de ser um "momento Sputnik".

Todo desenvolvedor sabe que existem duas maneiras de melhorar o desempenho: otimizar o código ou "desperdiçar" uma grande quantidade de recursos computacionais. O segundo tem um custo extremamente alto, por isso os desenvolvedores são sempre aconselhados a maximizar a otimização da arquitetura antes de aumentar os recursos computacionais.

No entanto, à medida que as avaliações das startups de inteligência artificial sobem e grandes investimentos fluem, os desenvolvedores parecem ter se acomodado. Se têm orçamentos de bilhões de dólares, por que gastar tempo otimizando a estrutura do modelo?

Este é um aviso para todos os desenvolvedores: voltem às bases, inovem de forma responsável, saiam da zona de conforto, ultrapassem os padrões de pensamento estabelecidos e não temam desafiar as normas. Não é necessário desperdiçar dinheiro e recursos - devem usá-los de forma sábia.

Como outros LLM, o DeepSeek R1 ainda apresenta deficiências significativas em raciocínio, capacidade de planejamento complexo, compreensão do mundo físico e memória persistente. Portanto, não há inovações disruptivas aqui.

Agora é a hora dos cientistas superarem os LLMs, resolverem essas limitações e desenvolverem um "novo paradigma de arquitetura de IA da próxima geração". Isso pode não ser LLM ou IA gerativa — mas sim uma verdadeira revolução.

Abrir caminho para acelerar a inovação

O método DeepSeek pode incentivar desenvolvedores em todo o mundo, especialmente em países em desenvolvimento, a inovar e desenvolver suas próprias aplicações de IA, independentemente dos recursos disponíveis. Quanto mais pessoas participam da pesquisa e desenvolvimento de IA, mais rápida será a velocidade de inovação e maior será a probabilidade de alcançar avanços significativos.

Isso está de acordo com a visão da Nvidia: tornar a IA acessível e permitir que cada desenvolvedor ou cientista possa desenvolver suas próprias aplicações de IA. Esse é exatamente o significado do projeto DIGITS, anunciado no início deste ano, que consiste em uma GPU de mesa com preço de 3000 dólares.

A humanidade precisa de "todos a bordo" para resolver problemas urgentes. Os recursos podem já não ser um obstáculo - é hora de quebrar os antigos paradigmas.

Ao mesmo tempo, o lançamento da DeepSeek também é um alerta para a gestão de riscos operacionais e IA responsável.

Leia atentamente os termos

Todas as aplicações têm termos de serviço, e o público costuma ignorá-los.

Alguns detalhes preocupantes nos Termos de Serviço da DeepSeek podem afetar a sua privacidade, segurança e até mesmo a sua estratégia comercial:

Retenção de dados: excluir a conta não significa que os dados sejam excluídos - a DeepSeek ainda retém os seus dados.

Monitorização: A aplicação tem o direito de monitorizar, processar e recolher as entradas e saídas dos utilizadores, incluindo informações sensíveis.

Exposição Legal: A DeepSeek está sujeita à legislação chinesa, o que significa que as autoridades do país podem acessar e monitorar seus dados mediante solicitação - o governo chinês está ativamente monitorando seus dados.

Alteração unilateral: a DeepSeek pode atualizar os termos a qualquer momento - sem a sua concordância.

Controvérsias e litígios: todas as reclamações e assuntos legais estão sujeitos à legislação da República Popular da China.

As ações acima violam claramente o Regulamento Geral sobre a Proteção de Dados (GDPR) e outras violações de privacidade e segurança do GDPR listadas nas queixas apresentadas pela Bélgica, Irlanda e Itália, que por sua vez suspenderam temporariamente o uso do DeepSeek.

Em março de 2023, as autoridades regulatórias italianas temporariamente proibiram o ChatGPT da OpenAI devido a violações do GDPR, só permitindo o seu relançamento um mês depois, após melhorias de conformidade. A DeepSeek também seguirá um caminho de conformidade?

Preconceito e censura

Como outros LLMs, o DeepSeek R1 apresenta ilusões, preconceitos nos dados de treino e demonstra comportamentos que estão alinhados com a posição política da China em certos tópicos, como censura e privacidade.

Como uma empresa chinesa, isso era esperado. A Lei de IA Generativa, que se aplica a provedores e usuários de sistemas de IA, estabelece no Artigo 4: esta é uma regra de revisão. Isso significa que aqueles que desenvolvem e/ou utilizam IA generativa devem apoiar os "valores centrais do socialismo" e cumprir as leis relevantes da China.

Isso não quer dizer que outros LLMs não tenham seus próprios preconceitos e "agendas". Isso destaca a importância de uma IA confiável e responsável, bem como a necessidade de os usuários seguirem uma rigorosa gestão de riscos de IA.

Vulnerabilidades de segurança do LLM

Os LLMs podem ser alvo de ataques adversariais e vulnerabilidades de segurança. Essas vulnerabilidades são particularmente preocupantes porque afetam qualquer organização ou indivíduo que construa aplicações baseadas nesse LLM.

A Qualys realizou testes de vulnerabilidade, avaliação de riscos éticos e avaliação de riscos legais na versão simplificada LLaMA 8B do DeepSeek-R1. O modelo falhou em metade dos testes de jailbreak - ou seja, ataques que contornam as medidas de segurança e as diretrizes éticas incorporadas ao modelo de IA.

O Goldman Sachs está a considerar o uso do DeepSeek, mas precisa de realizar uma auditoria de segurança, como testes de injeção e jailbreak. Independentemente de o modelo ser oriundo da China ou não, existem riscos de segurança para qualquer empresa ao utilizar aplicações impulsionadas por modelos de IA.

O Goldman Sachs está a implementar as medidas de gestão de risco corretas, e outras organizações também devem seguir este exemplo antes de decidir usar o DeepSeek.

Resumir experiências

Devemos permanecer vigilantes e diligentes, implementando uma gestão de riscos adequada antes de usar qualquer sistema ou aplicação de IA. Para mitigar qualquer viés de "agenda" e problemas de censura trazidos por LLM, podemos considerar a adoção de IA descentralizada, preferencialmente na forma de uma organização autônoma descentralizada (DAO). A IA não tem fronteiras, e talvez agora seja o momento certo para considerar a criação de uma regulamentação global unificada para a IA.

Autor da opinião: Dra. Merav Ozair

Artigos relacionados: Como as Finanças Descentralizadas (DeFi) podem alcançar um desenvolvimento seguro e escalável na era da Inteligência Artificial (IA)

Este artigo destina-se apenas a fins informativos gerais, não é e não deve ser considerado como aconselhamento jurídico ou de investimento. As opiniões, ideias e comentários expressos neste artigo representam apenas o autor e não refletem necessariamente as opiniões e posições da Cointelegraph.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)