出典:コインテレグラフ原文: 《 深度求索(DeepSeek):負責任なイノベーションとリスク管理の警鐘 》意見の著者:メラヴ・オザイア博士1月20日の発表以来、DeepSeek R1はユーザーだけでなく、世界中のテクノロジー大亨、政府、政策立案者からも広範な関心を集めています——称賛から疑念、採用から禁止、革新の輝かしい業績から計り知れないプライバシーとセキュリティの欠陥まで。誰が正しいのか?簡潔な答え:誰もが正しい、そして誰もが間違っている。これは「スプートニクの瞬間」ではないDeepSeekは、大規模言語モデル(LLM)を開発しました。その性能はOpenAIのGTPo1に匹敵し、必要な時間とコストはOpenAI(および他のテクノロジー企業)が独自のLLMを開発するために必要なもののほんの一部です。巧妙なアーキテクチャの最適化により、モデルのトレーニングと推論のコストを大幅に削減し、DeepSeekは60日以内に600万ドル未満の費用でLLMを開発することができます。確かに、DeepSeekは最適化モデルの構造やコードのより良い方法を積極的に探求していることで評価されるべきです。これは警鐘ですが、「スプートニクの瞬間」と呼ぶには遠いです。すべての開発者は、パフォーマンスを向上させる方法が2つあることを知っています:コードを最適化するか、大量の計算リソースを「投資」するか。後者は非常に高コストであるため、開発者は常に計算リソースを増やす前に、アーキテクチャの最適化を最大化することを勧められます。しかし、人工知能のスタートアップ企業の評価が高まり、大規模な投資が流入する中で、開発者は怠惰になっているようだ。数十億ドルの予算があるなら、モデルの構造を最適化するために時間を費やす必要があるのだろうか?これはすべての開発者への警告です:基本に立ち返り、責任を持って革新し、快適ゾーンを抜け出し、固定観念から脱却し、常識に挑むことを恐れないでください。お金やリソースを無駄にする必要はありません——それらを賢く使用すべきです。他のLLMと同様に、DeepSeek R1は推論、複雑な計画能力、物理世界の理解、持続的な記憶の面で依然として明らかな欠点があります。したがって、ここには特に革新的なものはありません。今こそ科学者たちがLLMを超え、これらの限界を克服し「次世代AIアーキテクチャのパラダイム」を開発する時です。これはLLMや生成AIではないかもしれません——真の革命かもしれません。革新を加速するための道を開くDeepSeekの方法は、特に発展途上国を含む世界中の開発者を奨励し、資源がどれだけあっても自分自身のAIアプリケーションを革新し開発できるようにします。AIの研究開発に参加する人が増えれば増えるほど、革新と発展の速度が速くなり、意義のある突破口を達成する可能性も高まります。これはNvidiaのビジョンと一致しています:AIを手頃な価格にし、すべての開発者や科学者が自分のAIアプリケーションを開発できるようにすることです。これこそが今年の1月初めに発表されたDIGITSプロジェクトの意味であり、3000ドルのデスクトップGPUです。人類は緊急の問題を解決するために「全員参加」が必要です。リソースはもはや障害ではないかもしれません——古いパラダイムを打破する時です。一方、DeepSeekのリリースは、実行可能なリスク管理と責任あるAIに対する警鐘でもあります。条項をよくお読みくださいすべてのアプリケーションにはサービス条項があり、一般の人々はそれを見落としがちです。DeepSeekサービスの利用規約には、あなたのプライバシー、安全、さらにはビジネス戦略に影響を与える可能性のあるいくつかの警戒すべき詳細があります。データ保持:アカウントを削除してもデータが削除されるわけではありません——DeepSeekはあなたのデータを保持します。監視:アプリはユーザーの入力と出力を監視、処理、収集する権限を持ち、敏感な情報を含みます。法的暴露:DeepSeekは中国の法律の管轄下にあり、これは国家機関が要求に応じてあなたのデータにアクセスし、監視できることを意味します——中国政府はあなたのデータを積極的に監視しています。一方的な変更:DeepSeekはいつでも条項を更新できます - あなたの同意は必要ありません。争議と訴訟:すべての請求および法的事項は中華人民共和国の法律の管轄を受けます。上記の行為は明らかに《一般データ保護規則》(GDPR)およびベルギー、アイルランド、イタリアが提起した他のGDPRのプライバシーおよびセキュリティの違反に違反しており、これらの国はそのためにDeepSeekの使用を一時的に禁止しています。2023年3月、イタリアの規制当局はGDPR違反のためにOpenAIのChatGPTのリリースを一時的に禁止し、1ヶ月後にコンプライアンスの改善が行われてから再開されました。DeepSeekもコンプライアンスの道を歩むのでしょうか?偏見と検閲他のLLMと同様に、DeepSeek R1は幻覚、トレーニングデータのバイアスがあり、特定のテーマにおいて中国の政治的立場に合った行動を示し、検閲やプライバシーに関するものです。中国の企業として、これは予想されることです。AIシステムの提供者とユーザーに適用される「生成的AI法」の第4条には、これは審査規則であると規定されています。これは、生成的AIを開発および/または使用する人々は「社会主義の核心価値観」を支持し、中国の関連法を遵守しなければならないことを意味します。これは他のLLMが自らの偏見や「アジェンダ」を持っていないということではありません。これは信頼できる責任あるAIの重要性、そしてユーザーが厳格なAIリスク管理に従う必要性を強調しています。LLMのセキュリティホールLLMは対抗的攻撃やセキュリティの脆弱性にさらされる可能性があります。これらの脆弱性は特に懸念されるもので、LLMに基づいてアプリケーションを構築する組織や個人に影響を及ぼすことになります。QualysはDeepSeek-R1のLLaMA 8Bの簡易版に対して脆弱性テスト、倫理的リスクおよび法的リスク評価を実施しました。このモデルは、半分の脱獄テストに失敗しました。つまり、AIモデルに内蔵されたセキュリティ対策および倫理基準を回避する攻撃です。ゴールドマン・サックスはDeepSeekの使用を検討していますが、注入攻撃や脱獄テストなどのセキュリティ審査が必要です。モデルが中国からのものであってもなくても、AIモデル駆動のアプリケーションを使用する前に、すべての企業にはセキュリティリスクが存在します。ゴールドマン・サックスは適切なリスク管理措置を実施しており、他の組織もDeepSeekを使用する前にこの方法を模倣すべきです。経験をまとめる私たちは、AIシステムやアプリケーションを使用する前に、適切なリスク管理を実施するために警戒を怠らず、勤勉でなければなりません。 LLMに付随する「アジェンダ」バイアスと検閲の問題を軽減するために、分散型自律組織(DAO)の形で、分散型AIの採用を検討することができます。 AIに国境はなく、今こそ、世界統一されたAI規制を検討する時なのかもしれません。意見の著者:メラヴ・オザイア博士関連するトピック:人工知能(AI)時代における分散型金融(DeFi)の安全なスケール開発の実現方法この記事は一般情報提供のみを目的としており、法的または投資の助言として解釈されるべきではありません。この記事で表明された意見、考え、見解は著者個人のものであり、必ずしもCointelegraphの見解や立場を反映または代表するものではありません。
デプス求索(DeepSeek):責任ある革新とリスク管理の警鐘
出典:コインテレグラフ 原文: 《 深度求索(DeepSeek):負責任なイノベーションとリスク管理の警鐘 》
意見の著者:メラヴ・オザイア博士
1月20日の発表以来、DeepSeek R1はユーザーだけでなく、世界中のテクノロジー大亨、政府、政策立案者からも広範な関心を集めています——称賛から疑念、採用から禁止、革新の輝かしい業績から計り知れないプライバシーとセキュリティの欠陥まで。
誰が正しいのか?簡潔な答え:誰もが正しい、そして誰もが間違っている。
これは「スプートニクの瞬間」ではない
DeepSeekは、大規模言語モデル(LLM)を開発しました。その性能はOpenAIのGTPo1に匹敵し、必要な時間とコストはOpenAI(および他のテクノロジー企業)が独自のLLMを開発するために必要なもののほんの一部です。
巧妙なアーキテクチャの最適化により、モデルのトレーニングと推論のコストを大幅に削減し、DeepSeekは60日以内に600万ドル未満の費用でLLMを開発することができます。
確かに、DeepSeekは最適化モデルの構造やコードのより良い方法を積極的に探求していることで評価されるべきです。これは警鐘ですが、「スプートニクの瞬間」と呼ぶには遠いです。
すべての開発者は、パフォーマンスを向上させる方法が2つあることを知っています:コードを最適化するか、大量の計算リソースを「投資」するか。後者は非常に高コストであるため、開発者は常に計算リソースを増やす前に、アーキテクチャの最適化を最大化することを勧められます。
しかし、人工知能のスタートアップ企業の評価が高まり、大規模な投資が流入する中で、開発者は怠惰になっているようだ。数十億ドルの予算があるなら、モデルの構造を最適化するために時間を費やす必要があるのだろうか?
これはすべての開発者への警告です:基本に立ち返り、責任を持って革新し、快適ゾーンを抜け出し、固定観念から脱却し、常識に挑むことを恐れないでください。お金やリソースを無駄にする必要はありません——それらを賢く使用すべきです。
他のLLMと同様に、DeepSeek R1は推論、複雑な計画能力、物理世界の理解、持続的な記憶の面で依然として明らかな欠点があります。したがって、ここには特に革新的なものはありません。
今こそ科学者たちがLLMを超え、これらの限界を克服し「次世代AIアーキテクチャのパラダイム」を開発する時です。これはLLMや生成AIではないかもしれません——真の革命かもしれません。
革新を加速するための道を開く
DeepSeekの方法は、特に発展途上国を含む世界中の開発者を奨励し、資源がどれだけあっても自分自身のAIアプリケーションを革新し開発できるようにします。AIの研究開発に参加する人が増えれば増えるほど、革新と発展の速度が速くなり、意義のある突破口を達成する可能性も高まります。
これはNvidiaのビジョンと一致しています:AIを手頃な価格にし、すべての開発者や科学者が自分のAIアプリケーションを開発できるようにすることです。これこそが今年の1月初めに発表されたDIGITSプロジェクトの意味であり、3000ドルのデスクトップGPUです。
人類は緊急の問題を解決するために「全員参加」が必要です。リソースはもはや障害ではないかもしれません——古いパラダイムを打破する時です。
一方、DeepSeekのリリースは、実行可能なリスク管理と責任あるAIに対する警鐘でもあります。
条項をよくお読みください
すべてのアプリケーションにはサービス条項があり、一般の人々はそれを見落としがちです。
DeepSeekサービスの利用規約には、あなたのプライバシー、安全、さらにはビジネス戦略に影響を与える可能性のあるいくつかの警戒すべき詳細があります。
データ保持:アカウントを削除してもデータが削除されるわけではありません——DeepSeekはあなたのデータを保持します。
監視:アプリはユーザーの入力と出力を監視、処理、収集する権限を持ち、敏感な情報を含みます。
法的暴露:DeepSeekは中国の法律の管轄下にあり、これは国家機関が要求に応じてあなたのデータにアクセスし、監視できることを意味します——中国政府はあなたのデータを積極的に監視しています。
一方的な変更:DeepSeekはいつでも条項を更新できます - あなたの同意は必要ありません。
争議と訴訟:すべての請求および法的事項は中華人民共和国の法律の管轄を受けます。
上記の行為は明らかに《一般データ保護規則》(GDPR)およびベルギー、アイルランド、イタリアが提起した他のGDPRのプライバシーおよびセキュリティの違反に違反しており、これらの国はそのためにDeepSeekの使用を一時的に禁止しています。
2023年3月、イタリアの規制当局はGDPR違反のためにOpenAIのChatGPTのリリースを一時的に禁止し、1ヶ月後にコンプライアンスの改善が行われてから再開されました。DeepSeekもコンプライアンスの道を歩むのでしょうか?
偏見と検閲
他のLLMと同様に、DeepSeek R1は幻覚、トレーニングデータのバイアスがあり、特定のテーマにおいて中国の政治的立場に合った行動を示し、検閲やプライバシーに関するものです。
中国の企業として、これは予想されることです。AIシステムの提供者とユーザーに適用される「生成的AI法」の第4条には、これは審査規則であると規定されています。これは、生成的AIを開発および/または使用する人々は「社会主義の核心価値観」を支持し、中国の関連法を遵守しなければならないことを意味します。
これは他のLLMが自らの偏見や「アジェンダ」を持っていないということではありません。これは信頼できる責任あるAIの重要性、そしてユーザーが厳格なAIリスク管理に従う必要性を強調しています。
LLMのセキュリティホール
LLMは対抗的攻撃やセキュリティの脆弱性にさらされる可能性があります。これらの脆弱性は特に懸念されるもので、LLMに基づいてアプリケーションを構築する組織や個人に影響を及ぼすことになります。
QualysはDeepSeek-R1のLLaMA 8Bの簡易版に対して脆弱性テスト、倫理的リスクおよび法的リスク評価を実施しました。このモデルは、半分の脱獄テストに失敗しました。つまり、AIモデルに内蔵されたセキュリティ対策および倫理基準を回避する攻撃です。
ゴールドマン・サックスはDeepSeekの使用を検討していますが、注入攻撃や脱獄テストなどのセキュリティ審査が必要です。モデルが中国からのものであってもなくても、AIモデル駆動のアプリケーションを使用する前に、すべての企業にはセキュリティリスクが存在します。
ゴールドマン・サックスは適切なリスク管理措置を実施しており、他の組織もDeepSeekを使用する前にこの方法を模倣すべきです。
経験をまとめる
私たちは、AIシステムやアプリケーションを使用する前に、適切なリスク管理を実施するために警戒を怠らず、勤勉でなければなりません。 LLMに付随する「アジェンダ」バイアスと検閲の問題を軽減するために、分散型自律組織(DAO)の形で、分散型AIの採用を検討することができます。 AIに国境はなく、今こそ、世界統一されたAI規制を検討する時なのかもしれません。
意見の著者:メラヴ・オザイア博士
関連するトピック:人工知能(AI)時代における分散型金融(DeFi)の安全なスケール開発の実現方法
この記事は一般情報提供のみを目的としており、法的または投資の助言として解釈されるべきではありません。この記事で表明された意見、考え、見解は著者個人のものであり、必ずしもCointelegraphの見解や立場を反映または代表するものではありません。