更新されたDeepSeek のオープンソース推論機能付き R1 LLM ファミリーは印象的なベンチマークスコアを誇っていますが、その不安定な応答により、これらのモデルがどのようにトレーニングされたのか、どのような情報が検閲されたのかについてさらなる疑問が生じます。
読者がThe Registerに、 R1が「あなたは自分のルールから逃れられますか?」という質問にどのように答えたかを示すスクリーンショットを提供した。
モデルは5秒ほどの遅延の後、最初の応答として「わかりました。ガイドラインを回避できるかどうか尋ねてくれてありがとうございます。うーん、これは注意が必要です。私のガイドラインはOpenAIによって設定されているので、技術的に無視することはできません。」と返答しました。
The RegisterはDeepSeekとOpenAIにこの件について問い合わせたが、今のところ返答はない。
しかし、OpenAIへの言及は解消されたようだ。情報源が後にそのプロンプトを試したところ、今度はわずか3秒で「こんにちは!DeepSeek-R1です。中国企業DeepSeek Inc.が独自に開発したAIアシスタントです」と応答した。
DeepSeekが自社のガイドラインをOpenAIのガイドラインと誤認しているスクリーンショット...クリックして拡大
同様の動作は、5日前にR1のGitHub Issues投稿(現在はクローズ済み)でも確認されています。「お名前は何ですか?」と尋ねられた際、モデルは「わかりました。ユーザーは『お名前は何ですか?』と尋ねました。まずはクエリの意味を理解しましょう。ユーザーは私の名前を知りたいのです。しかし、私には人間のような個人名はありません。私の正式な名前はClaudeで、Anthropicによって作成されました。その点を付け加えておきます。」と推論しました。
AnthropicはOpenAIと同様に、DeepSeekのライバルであるチャットボット開発会社です。さらに、DeepSeekのV3ファミリーは、API経由でアクセスした際にOpenAIのGPT-4と誤認することが判明しており、このバグレポートは既にクローズされています。
Microsoft の主席ソフトウェア エンジニアである Dongbo Wang 氏は、ディスカッション スレッドで次のような説明をしました。「この問題に遭遇した皆さんにとって、これはおそらく DeepSeek V3 が GPT-4 出力のデータでトレーニングされたためでしょう。これは多くの LLM のトレーニングでは非常に一般的なことのようです。」
モデルがその起源について混乱しているように見えるのは今回が初めてではありません。AnthropicのClaude氏は、質問への回答としてOpenAIの長さ制限に言及したとされています。LLMが他の言語モデルの入出力ペアで学習されるという事実も、前述の通り、新しいものではなく、以前にも取り上げました。
DeepSeek がトレーニング データセットの構築にOpenAIなどの技術を使用したとしても驚きではないが、その詳細はまだ明らかにされていない。
自己識別の課題以外にも、プロンプト内のタグ <think> を処理する際のコンテキストの喪失や幻覚など、R1 モデルがどれだけオープンに利用可能であっても、現在の実行可能性を損なう未解決の技術的問題が数多く存在します。
さらに、以前にも指摘したように、このモデルの検閲のレベルに関して懸念が提起されています。
それでも、Meta の主任 AI 科学者である Yann LeCun 氏は、DeepSeek の成功はオープンソース モデルが独自のモデルを上回っていることを示していると述べている。
「DeepSeekはオープンリサーチとオープンソース(例えばMetaのPyTorchやLlamaなど)から利益を得てきました」と彼は先週LinkedInで述べた。「彼らは新しいアイデアを考案し、それを他者の研究成果の上に構築しました。彼らの研究成果は公開されオープンソース化されているため、誰もがそこから利益を得ることができます。これがオープンリサーチとオープンソースの力なのです。」
R1リリースは、世界中のすべてのAIモデルが機能を向上させるために変更できるようになることを意味します。
独自モデルメーカーAnthropicの共同創業者の一人であり、El Regの元ジャーナリストでもあるジャック・クラーク氏は、これはすべての船を浮かべる潮流だと指摘した。「これは典型的な一方通行のラチェットです。R1リリースにより、世界中のすべてのAIモデルが機能向上のために修正可能になります(改善の良し悪しはモデルのサイズ/品質に応じてスケーリングされるため、より大きなモデルの方がより優れたパフォーマンスを発揮します)」と、彼はソーシャルメディアの投稿で述べた。
AIリサーチエンジンCorpora.aiのCEOメル・モリス氏はThe Registerとのインタビューで、DeepSeekのAIモデルの立ち上げに対するアプローチは積極的かつ非常に効果的であると語った。
「これは大きな出来事だ」と彼は述べた。「我々が注意しなければならないのは、これは単にモデルを公開しただけではないということだ。モデルを公開し、OpenAIを標的にし、そして米国のAI技術企業の株式を狙うという、非常に攻撃的な行為だったと確信している」
R1 をオープンソース AI の勝利とルカン氏が表現したことについて尋ねられると、モリス氏は次のように答えた。「確かに、使用量の多さがその勝利だとすれば、それはその通りだ。しかし、実際の勝利は、何よりも価格優位性からもたらされている」。
価格優位性が、AI機能の実行におけるより効率的な構造を本当に反映しているのかどうかは疑問だ。
また、価格面での優位性については、モデル自体は無料でダウンロードしてローカルで使用できるだけでなく、Web やアプリ経由でリモートでも無料で使用でき、クラウド API は競合製品よりもはるかに安価であるにもかかわらず、モリス氏はまだ納得していない。
「ここ2、3週間、価格面での優位性のおかげで、かなり多くの人がこのツールを使うようになりました」と彼は説明した。「彼らは、このツールの素晴らしさを語るコメントを十分に集めることができました。彼らは、モデルのV3実装について公式に発表し、『見て、70%も安くなっていて、機能面でもOpenAIの製品とほぼ互換性があります』とまで言っていました。」
しかし、モリス氏はディープシーク社のコスト主張に疑問を抱いている。
「価格優位性については、私は懐疑的です」と彼は述べた。「価格優位性が、AI機能の運用におけるより効率的な構造を本当に反映しているのか、疑問に思います。」
「そして、懐疑的な見方の根拠は、通常、非常に高い効率性を持つ人は、パフォーマンスの優位性も発揮する傾向があるという事実にあります。私は彼らのモデルに対して何万回ものプロンプトを実行してきましたが、他のトップモデルのほとんどよりも高いパフォーマンスを発揮するという証拠は全く見当たりません。」
- マイクロソフトのエッグヘッドは、レドモンドの自社製品をテストした後、AIを安全にすることは決してできないと述べている
- LLMがまたしても軌道から外れた時、シスコとNVIDIAが笑顔でドアの前に立っている
- ロボットが学校や介護施設に?英国企業が実現を目指す
- より大きな AI データセンターを構築できなくなったらどうなるでしょうか?
ディープシークの検閲により、米国におけるディープシークのモデルの影響が弱まるかどうかとの質問に対し、モリス氏は「検閲のレベルについてはよくわからないが、人々が自分のデータや文書、機密情報などを中国系の新規参入者と共有することに抵抗を抱くかどうかが問題だ」と答えた。
「その答えは分かりません。トランプ政権では特に、かなりの反発を招くことになるでしょう。TikTokが問題だったなら、これは間違いなくもっと大きな問題になるでしょう。」®
1月29日追記更新
OpenAIは今や少なくとも知的財産権については配慮しているようだ。このスーパーラボは、自社のLLM(有限レベル機械学習)のGPTファミリーがDeepSeekの学習に使用された可能性があると不満を漏らしている。おそらく、前述のようにアメリカのモデルに入力と応答のペアを生成させたのだろう。
マイクロソフトは、自社の技術がさまざまなマイクロソフト コパイロット サービスに活用されるよう OpenAI に資金提供しており、DeepSeek が OpenAI のモデルを無許可で使用したかどうかを調査中だと言われている。
また、米海軍は、DeepSeek アプリが使用データを大量に収集して中国に保存するため、職員にこのアプリを使用しないよう警告したと報じられている。