コンテンツへスキップ
Knowledge Distillation

中国 DeepSeekが OpenAIのAIモデルから知識蒸留(Knowledge Distillation)か?

中国のAIスタートアップ企業ディープシーク(DeepSeek)が世界を驚かせた最新AIモデルは、「OpenAIのデータを学習させる手法を用いて開発された」と、AI・暗号資産政策責任者を務めるデービッド・サックス(David Sacks)氏が指摘しています。米国 OpenAIは、中国 DeepSeekがチャットボットの訓練に自社のAIモデルを利用したかどうかを調査しています。知識蒸留(Knowledge Distillation / arXiv)によると指摘されています。

Knowledge Distillation
Knowledge Distillation in Deep Learning – Basics / Dingu Sagar

DeepSeekは今月、人間の推論方法を模倣できる新しいオープンソースAIモデル DeepSeek-R1 を発表しました。DeepSeek-R1が数学的タスクや一般知識など、AI業界のさまざまなベンチマークにおいて、米国の大手AI企業と肩を並べるか、それを上回る性能を発揮するとしています。一方でその開発コストは、米国企業の数分の一で済んだということです。

1月28日、AI・暗号資産政策責任者のサックス氏は DeepSeekがOpenAIのモデルのアウトプットを参考に技術を開発した「相当な証拠」があると述べています。OpenAIの広報担当者は「AIのトップ企業として知的財産を守るための対策に取り組んでいる。米政府と緊密に協力することが極めて重要だと考えている」と説明しています。

Open AI, Inc. and DeepSeek
Open AI, Inc. and DeepSeek / Wikipedia

OpenAIは、自社のAIツールから大量のデータを抽出しようと、中国を拠点とする複数の組織がさまざまな試みをしたことを確認したと述べています。「知識蒸留」という技術的プロセスによって自前のAIモデルを訓練しようとした可能性が高いということです。

OpenAIは、同社のモデルから知識蒸留を行った疑いのあるアカウントを停止したと明らかにしました。こうした試みと関連のある主体を特定するため、OpenAIのモデルをホストしている MicroSoftと協力していると述べています。事情に詳しい関係者によると、OpenAIはDeepSeekも調査対象としています。

世界中で暗躍する産業スパイ。その時代の先端技術、飛行機や自動車、コンピュータ、家電製品などもリバースエンジニアリングにより「模倣」「低廉化」されてきました。いまは「生成AI」「自動運転車」「宇宙」など・・。ますます「知的財産権」が重要になります。ただ、オープンソースゆえの難しさもあります。

rxiv Knowledge Distillation
The generic teacher-student framework for knowledge distillation. / Knowledge Distillation: A Survey

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA


このサイトはスパムを低減するために Akismet を使っています。コメントデータの処理方法の詳細はこちらをご覧ください