Fonte: Cointelegraph
Texto original: "DeepSeek: O sino de alerta para inovação responsável e gestão de riscos"
Autor da opinião: Dra. Merav Ozair
Desde o seu lançamento a 20 de janeiro, o DeepSeek R1 atraiu uma ampla atenção de usuários, bem como de magnatas tecnológicos globais, governos e formuladores de políticas — desde elogios até ceticismo, desde adoção até proibições, desde o esplendor da inovação até falhas de privacidade e segurança incalculáveis.
Quem está certo? Resposta curta: todos estão certos, e todos estão errados.
Isto não é o "momento Sputnik"
A DeepSeek desenvolveu um modelo de linguagem de grande escala (LLM) cujo desempenho pode rivalizar com o GTPo1 da OpenAI, e o tempo e custo necessários representam apenas uma pequena parte do que a OpenAI (e outras empresas de tecnologia) gastam para desenvolver seu próprio LLM.
Através de uma otimização arquitetónica inteligente, os custos de treino e inferência do modelo foram significativamente reduzidos, permitindo que a DeepSeek desenvolvesse um LLM em 60 dias, com um custo inferior a 6 milhões de dólares.
De facto, o DeepSeek é digno de reconhecimento por procurar ativamente melhores métodos para otimizar a estrutura e o código do modelo. Este é um aviso, mas está longe de ser um "momento Sputnik".
Todo desenvolvedor sabe que existem duas maneiras de melhorar o desempenho: otimizar o código ou "desperdiçar" uma grande quantidade de recursos computacionais. O segundo tem um custo extremamente alto, por isso os desenvolvedores são sempre aconselhados a maximizar a otimização da arquitetura antes de aumentar os recursos computacionais.
No entanto, à medida que as avaliações das startups de inteligência artificial sobem e grandes investimentos fluem, os desenvolvedores parecem ter se acomodado. Se têm orçamentos de bilhões de dólares, por que gastar tempo otimizando a estrutura do modelo?
Este é um aviso para todos os desenvolvedores: voltem às bases, inovem de forma responsável, saiam da zona de conforto, ultrapassem os padrões de pensamento estabelecidos e não temam desafiar as normas. Não é necessário desperdiçar dinheiro e recursos - devem usá-los de forma sábia.
Como outros LLM, o DeepSeek R1 ainda apresenta deficiências significativas em raciocínio, capacidade de planejamento complexo, compreensão do mundo físico e memória persistente. Portanto, não há inovações disruptivas aqui.
Agora é a hora dos cientistas superarem os LLMs, resolverem essas limitações e desenvolverem um "novo paradigma de arquitetura de IA da próxima geração". Isso pode não ser LLM ou IA gerativa — mas sim uma verdadeira revolução.
Abrir caminho para acelerar a inovação
O método DeepSeek pode incentivar desenvolvedores em todo o mundo, especialmente em países em desenvolvimento, a inovar e desenvolver suas próprias aplicações de IA, independentemente dos recursos disponíveis. Quanto mais pessoas participam da pesquisa e desenvolvimento de IA, mais rápida será a velocidade de inovação e maior será a probabilidade de alcançar avanços significativos.
Isso está de acordo com a visão da Nvidia: tornar a IA acessível e permitir que cada desenvolvedor ou cientista possa desenvolver suas próprias aplicações de IA. Esse é exatamente o significado do projeto DIGITS, anunciado no início deste ano, que consiste em uma GPU de mesa com preço de 3000 dólares.
A humanidade precisa de "todos a bordo" para resolver problemas urgentes. Os recursos podem já não ser um obstáculo - é hora de quebrar os antigos paradigmas.
Ao mesmo tempo, o lançamento da DeepSeek também é um alerta para a gestão de riscos operacionais e IA responsável.
Leia atentamente os termos
Todas as aplicações têm termos de serviço, e o público costuma ignorá-los.
Alguns detalhes preocupantes nos Termos de Serviço da DeepSeek podem afetar a sua privacidade, segurança e até mesmo a sua estratégia comercial:
Retenção de dados: excluir a conta não significa que os dados sejam excluídos - a DeepSeek ainda retém os seus dados.
Monitorização: A aplicação tem o direito de monitorizar, processar e recolher as entradas e saídas dos utilizadores, incluindo informações sensíveis.
Exposição Legal: A DeepSeek está sujeita à legislação chinesa, o que significa que as autoridades do país podem acessar e monitorar seus dados mediante solicitação - o governo chinês está ativamente monitorando seus dados.
Alteração unilateral: a DeepSeek pode atualizar os termos a qualquer momento - sem a sua concordância.
Controvérsias e litígios: todas as reclamações e assuntos legais estão sujeitos à legislação da República Popular da China.
As ações acima violam claramente o Regulamento Geral sobre a Proteção de Dados (GDPR) e outras violações de privacidade e segurança do GDPR listadas nas queixas apresentadas pela Bélgica, Irlanda e Itália, que por sua vez suspenderam temporariamente o uso do DeepSeek.
Em março de 2023, as autoridades regulatórias italianas temporariamente proibiram o ChatGPT da OpenAI devido a violações do GDPR, só permitindo o seu relançamento um mês depois, após melhorias de conformidade. A DeepSeek também seguirá um caminho de conformidade?
Preconceito e censura
Como outros LLMs, o DeepSeek R1 apresenta ilusões, preconceitos nos dados de treino e demonstra comportamentos que estão alinhados com a posição política da China em certos tópicos, como censura e privacidade.
Como uma empresa chinesa, isso era esperado. A Lei de IA Generativa, que se aplica a provedores e usuários de sistemas de IA, estabelece no Artigo 4: esta é uma regra de revisão. Isso significa que aqueles que desenvolvem e/ou utilizam IA generativa devem apoiar os "valores centrais do socialismo" e cumprir as leis relevantes da China.
Isso não quer dizer que outros LLMs não tenham seus próprios preconceitos e "agendas". Isso destaca a importância de uma IA confiável e responsável, bem como a necessidade de os usuários seguirem uma rigorosa gestão de riscos de IA.
Vulnerabilidades de segurança do LLM
Os LLMs podem ser alvo de ataques adversariais e vulnerabilidades de segurança. Essas vulnerabilidades são particularmente preocupantes porque afetam qualquer organização ou indivíduo que construa aplicações baseadas nesse LLM.
A Qualys realizou testes de vulnerabilidade, avaliação de riscos éticos e avaliação de riscos legais na versão simplificada LLaMA 8B do DeepSeek-R1. O modelo falhou em metade dos testes de jailbreak - ou seja, ataques que contornam as medidas de segurança e as diretrizes éticas incorporadas ao modelo de IA.
O Goldman Sachs está a considerar o uso do DeepSeek, mas precisa de realizar uma auditoria de segurança, como testes de injeção e jailbreak. Independentemente de o modelo ser oriundo da China ou não, existem riscos de segurança para qualquer empresa ao utilizar aplicações impulsionadas por modelos de IA.
O Goldman Sachs está a implementar as medidas de gestão de risco corretas, e outras organizações também devem seguir este exemplo antes de decidir usar o DeepSeek.
Resumir experiências
Devemos permanecer vigilantes e diligentes, implementando uma gestão de riscos adequada antes de usar qualquer sistema ou aplicação de IA. Para mitigar qualquer viés de "agenda" e problemas de censura trazidos por LLM, podemos considerar a adoção de IA descentralizada, preferencialmente na forma de uma organização autônoma descentralizada (DAO). A IA não tem fronteiras, e talvez agora seja o momento certo para considerar a criação de uma regulamentação global unificada para a IA.
Autor da opinião: Dra. Merav Ozair
Artigos relacionados: Como as Finanças Descentralizadas (DeFi) podem alcançar um desenvolvimento seguro e escalável na era da Inteligência Artificial (IA)
Este artigo destina-se apenas a fins informativos gerais, não é e não deve ser considerado como aconselhamento jurídico ou de investimento. As opiniões, ideias e comentários expressos neste artigo representam apenas o autor e não refletem necessariamente as opiniões e posições da Cointelegraph.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Profundidade求索(DeepSeek):负责任创新与Gestão de risco的警钟
Fonte: Cointelegraph Texto original: "DeepSeek: O sino de alerta para inovação responsável e gestão de riscos"
Autor da opinião: Dra. Merav Ozair
Desde o seu lançamento a 20 de janeiro, o DeepSeek R1 atraiu uma ampla atenção de usuários, bem como de magnatas tecnológicos globais, governos e formuladores de políticas — desde elogios até ceticismo, desde adoção até proibições, desde o esplendor da inovação até falhas de privacidade e segurança incalculáveis.
Quem está certo? Resposta curta: todos estão certos, e todos estão errados.
Isto não é o "momento Sputnik"
A DeepSeek desenvolveu um modelo de linguagem de grande escala (LLM) cujo desempenho pode rivalizar com o GTPo1 da OpenAI, e o tempo e custo necessários representam apenas uma pequena parte do que a OpenAI (e outras empresas de tecnologia) gastam para desenvolver seu próprio LLM.
Através de uma otimização arquitetónica inteligente, os custos de treino e inferência do modelo foram significativamente reduzidos, permitindo que a DeepSeek desenvolvesse um LLM em 60 dias, com um custo inferior a 6 milhões de dólares.
De facto, o DeepSeek é digno de reconhecimento por procurar ativamente melhores métodos para otimizar a estrutura e o código do modelo. Este é um aviso, mas está longe de ser um "momento Sputnik".
Todo desenvolvedor sabe que existem duas maneiras de melhorar o desempenho: otimizar o código ou "desperdiçar" uma grande quantidade de recursos computacionais. O segundo tem um custo extremamente alto, por isso os desenvolvedores são sempre aconselhados a maximizar a otimização da arquitetura antes de aumentar os recursos computacionais.
No entanto, à medida que as avaliações das startups de inteligência artificial sobem e grandes investimentos fluem, os desenvolvedores parecem ter se acomodado. Se têm orçamentos de bilhões de dólares, por que gastar tempo otimizando a estrutura do modelo?
Este é um aviso para todos os desenvolvedores: voltem às bases, inovem de forma responsável, saiam da zona de conforto, ultrapassem os padrões de pensamento estabelecidos e não temam desafiar as normas. Não é necessário desperdiçar dinheiro e recursos - devem usá-los de forma sábia.
Como outros LLM, o DeepSeek R1 ainda apresenta deficiências significativas em raciocínio, capacidade de planejamento complexo, compreensão do mundo físico e memória persistente. Portanto, não há inovações disruptivas aqui.
Agora é a hora dos cientistas superarem os LLMs, resolverem essas limitações e desenvolverem um "novo paradigma de arquitetura de IA da próxima geração". Isso pode não ser LLM ou IA gerativa — mas sim uma verdadeira revolução.
Abrir caminho para acelerar a inovação
O método DeepSeek pode incentivar desenvolvedores em todo o mundo, especialmente em países em desenvolvimento, a inovar e desenvolver suas próprias aplicações de IA, independentemente dos recursos disponíveis. Quanto mais pessoas participam da pesquisa e desenvolvimento de IA, mais rápida será a velocidade de inovação e maior será a probabilidade de alcançar avanços significativos.
Isso está de acordo com a visão da Nvidia: tornar a IA acessível e permitir que cada desenvolvedor ou cientista possa desenvolver suas próprias aplicações de IA. Esse é exatamente o significado do projeto DIGITS, anunciado no início deste ano, que consiste em uma GPU de mesa com preço de 3000 dólares.
A humanidade precisa de "todos a bordo" para resolver problemas urgentes. Os recursos podem já não ser um obstáculo - é hora de quebrar os antigos paradigmas.
Ao mesmo tempo, o lançamento da DeepSeek também é um alerta para a gestão de riscos operacionais e IA responsável.
Leia atentamente os termos
Todas as aplicações têm termos de serviço, e o público costuma ignorá-los.
Alguns detalhes preocupantes nos Termos de Serviço da DeepSeek podem afetar a sua privacidade, segurança e até mesmo a sua estratégia comercial:
Retenção de dados: excluir a conta não significa que os dados sejam excluídos - a DeepSeek ainda retém os seus dados.
Monitorização: A aplicação tem o direito de monitorizar, processar e recolher as entradas e saídas dos utilizadores, incluindo informações sensíveis.
Exposição Legal: A DeepSeek está sujeita à legislação chinesa, o que significa que as autoridades do país podem acessar e monitorar seus dados mediante solicitação - o governo chinês está ativamente monitorando seus dados.
Alteração unilateral: a DeepSeek pode atualizar os termos a qualquer momento - sem a sua concordância.
Controvérsias e litígios: todas as reclamações e assuntos legais estão sujeitos à legislação da República Popular da China.
As ações acima violam claramente o Regulamento Geral sobre a Proteção de Dados (GDPR) e outras violações de privacidade e segurança do GDPR listadas nas queixas apresentadas pela Bélgica, Irlanda e Itália, que por sua vez suspenderam temporariamente o uso do DeepSeek.
Em março de 2023, as autoridades regulatórias italianas temporariamente proibiram o ChatGPT da OpenAI devido a violações do GDPR, só permitindo o seu relançamento um mês depois, após melhorias de conformidade. A DeepSeek também seguirá um caminho de conformidade?
Preconceito e censura
Como outros LLMs, o DeepSeek R1 apresenta ilusões, preconceitos nos dados de treino e demonstra comportamentos que estão alinhados com a posição política da China em certos tópicos, como censura e privacidade.
Como uma empresa chinesa, isso era esperado. A Lei de IA Generativa, que se aplica a provedores e usuários de sistemas de IA, estabelece no Artigo 4: esta é uma regra de revisão. Isso significa que aqueles que desenvolvem e/ou utilizam IA generativa devem apoiar os "valores centrais do socialismo" e cumprir as leis relevantes da China.
Isso não quer dizer que outros LLMs não tenham seus próprios preconceitos e "agendas". Isso destaca a importância de uma IA confiável e responsável, bem como a necessidade de os usuários seguirem uma rigorosa gestão de riscos de IA.
Vulnerabilidades de segurança do LLM
Os LLMs podem ser alvo de ataques adversariais e vulnerabilidades de segurança. Essas vulnerabilidades são particularmente preocupantes porque afetam qualquer organização ou indivíduo que construa aplicações baseadas nesse LLM.
A Qualys realizou testes de vulnerabilidade, avaliação de riscos éticos e avaliação de riscos legais na versão simplificada LLaMA 8B do DeepSeek-R1. O modelo falhou em metade dos testes de jailbreak - ou seja, ataques que contornam as medidas de segurança e as diretrizes éticas incorporadas ao modelo de IA.
O Goldman Sachs está a considerar o uso do DeepSeek, mas precisa de realizar uma auditoria de segurança, como testes de injeção e jailbreak. Independentemente de o modelo ser oriundo da China ou não, existem riscos de segurança para qualquer empresa ao utilizar aplicações impulsionadas por modelos de IA.
O Goldman Sachs está a implementar as medidas de gestão de risco corretas, e outras organizações também devem seguir este exemplo antes de decidir usar o DeepSeek.
Resumir experiências
Devemos permanecer vigilantes e diligentes, implementando uma gestão de riscos adequada antes de usar qualquer sistema ou aplicação de IA. Para mitigar qualquer viés de "agenda" e problemas de censura trazidos por LLM, podemos considerar a adoção de IA descentralizada, preferencialmente na forma de uma organização autônoma descentralizada (DAO). A IA não tem fronteiras, e talvez agora seja o momento certo para considerar a criação de uma regulamentação global unificada para a IA.
Autor da opinião: Dra. Merav Ozair
Artigos relacionados: Como as Finanças Descentralizadas (DeFi) podem alcançar um desenvolvimento seguro e escalável na era da Inteligência Artificial (IA)
Este artigo destina-se apenas a fins informativos gerais, não é e não deve ser considerado como aconselhamento jurídico ou de investimento. As opiniões, ideias e comentários expressos neste artigo representam apenas o autor e não refletem necessariamente as opiniões e posições da Cointelegraph.