はじめに
米国務省は、AI新興企業DeepSeekを含む中国企業が米国のAIモデルを不正に利用しているとの懸念について、諸外国に認識を広げるよう在外公館に指示したと報じられました。ロイターによれば、4月24日付の外交公電は、各国当局者に対し、米国AIモデルの「抽出」や「蒸留」に関する懸念を提起するよう求める内容だったとされています。これに先立ち、ホワイトハウス当局者も、中国が米国AI研究機関の知的財産を「産業規模」で盗用していると非難する文書を公表していました。一方、中国大使館は、こうした非難は根拠がないとの立場を改めて示しています。
今回の問題は、単なる米中対立の一場面にとどまりません。AI時代において、何が「技術の利用」であり、何が「知的財産の不正取得」なのかという境界線が、急速に曖昧になっていることを示しています。
「蒸留」は技術革新か、ただ乗りか
AIの「蒸留」とは、一般に、高性能な既存モデルの出力を利用して、別のモデルに似た能力を学習させる手法を指します。技術的には、より小さく、安価で、扱いやすいモデルを作るための有効な方法です。研究開発の現場でも、モデル圧縮や性能移転の手段として用いられてきました。
しかし、問題は、その蒸留に用いられる元のモデルが、他社の膨大な投資によって開発された商用AIモデルである場合です。APIや対話画面を通じて大量の出力を取得し、それを学習データとして使い、競合モデルを短期間で構築するのであれば、単なる利用の範囲を超える可能性があります。
従来の知的財産権は、コード、論文、データベース、営業秘密など、比較的「形のある情報」を中心に保護してきました。これに対し、AIモデルの価値は、重み、学習過程、応答傾向、推論能力、ガードレール設計など、外部からは直接見えにくい部分に宿ります。蒸留は、その見えにくい価値を、出力を通じて間接的に写し取る行為になり得ます。
米国が外交問題化した理由
今回注目すべき点は、米国がこの問題を企業間の紛争や利用規約違反にとどめず、外交上の課題として扱い始めたことです。米国務省の公電は、各国の当局者に対して、米国AIモデルの抽出・蒸留に関する懸念を共有するよう求めたと報じられています。これは、AIモデルの不正利用を、経済安全保障や国家競争力の問題として位置付ける動きです。
背景には、AIモデルが単なるソフトウェア製品ではなく、軍事、サイバーセキュリティ、創薬、半導体設計、産業自動化など、多くの戦略分野に波及する基盤技術になっているという認識があります。高性能AIの能力を低コストで複製できるのであれば、先行企業や先行国の研究開発投資が短期間で追いつかれる可能性があります。
特に、生成AIでは、モデルの性能差が市場シェアや産業標準の形成に直結します。先端モデルの能力が蒸留によって競合モデルに移転されれば、研究開発費、計算資源、人材投資に大きな差があっても、後発企業が短期間で同等水準に近づくことができます。米国側がこれを強く問題視するのは、AI覇権の源泉が侵食されるという危機感があるためです。
ただし、立証は簡単ではない
もっとも、AIモデルの蒸留をめぐる問題は、非難する側にとっても簡単ではありません。あるモデルが別のモデルの出力を使って訓練されたかどうかを、外部から明確に立証することは容易ではないためです。
従来の著作権侵害であれば、文章や画像の類似性を比較できます。営業秘密の侵害であれば、秘密情報へのアクセス経路や持ち出しの証拠が問題になります。しかし、AIモデルの場合、外形的には「似たような応答をする」「同じような能力を示す」という程度にとどまることもあります。それだけで不正な蒸留を断定するのは難しいです。
そのため、今後は、アクセスログ、大量取得のパターン、異常なAPI利用、プロンプトの反復傾向、出力データの再利用痕跡などが重要な証拠になります。AI時代の知財保護は、権利そのものの設計だけでなく、利用状況を記録し、後から検証できる仕組みを持つことが不可欠になります。
利用規約だけでは守り切れない
多くのAIサービスは、利用規約によって、出力を競合モデルの訓練に使うことを禁止しています。しかし、利用規約は契約上のルールであり、国境を越えた大規模な利用や、偽装アカウントを通じた利用に対しては限界があります。
AIモデルの知財保護には、契約、技術、運用、外交、規制を組み合わせた多層的な防御が必要です。例えば、API利用量の監視、不自然なクエリの検出、出力への透かし技術、モデル応答のフィンガープリント、利用者認証の強化、再学習目的の利用禁止条項の明確化などが考えられます。
ただし、防御を強めすぎると、正当な研究利用や開発者エコシステムを阻害するおそれもあります。AI企業にとっては、開放性と防御性のバランスが大きな経営課題になります。
日本企業にとっての示唆
この問題は、日本企業にとっても他人事ではありません。日本企業が生成AIを利用する場合、入力データの管理だけでなく、AIの出力をどのように再利用するかについても注意が必要になります。
例えば、外部AIサービスの出力を大量に蓄積し、自社モデルの訓練に利用する場合、そのサービスの利用規約に抵触する可能性があります。また、他社AIの出力を用いて自社製品を開発する場合、後に知財上または契約上の問題を指摘されるリスクもあります。
一方で、日本企業が自社独自のAIモデルやデータ資産を持つ場合には、それらが第三者に蒸留されるリスクにも備える必要があります。重要なのは、AIモデルを「完成したプログラム」としてだけでなく、「能力そのものが価値を持つ知財」として捉えることです。
AI知財の中心は「コード」から「能力」へ移る
今回のニュースが示している本質は、AI知財の中心が、ソースコードや学習データそのものから、モデルが獲得した能力へ移りつつあるという点です。
従来であれば、コードを盗む、設計図を盗む、データベースをコピーする、といった行為が典型的な知財侵害でした。しかし、生成AIでは、外部からモデルに質問を投げ、その応答を集めることで、モデル内部の能力を間接的に取り出せる可能性があります。これは、知財保護の対象と手段を根本的に変えるものです。
もちろん、すべての蒸留が悪いわけではありません。正当な権利処理のもとで行われる蒸留や、自社モデルの効率化のための蒸留は、AI技術の発展にとって重要です。問題となるのは、他社が非公開の投資によって築いた能力を、無断で、組織的に、競争目的で取り込む行為です。
おわりに
DeepSeekをめぐる今回の報道は、AI開発競争が新たな段階に入ったことを示しています。これまでの競争は、より大きなモデルを作ること、より多くの計算資源を確保すること、より優れた人材を集めることが中心でした。これからは、それに加えて、他社モデルから能力を奪われないこと、そして自社のAI利用が他社の知財を侵害しないことが重要になります。
AIの蒸留は、技術としては有用です。しかし、その使い方によっては、革新を加速する手段にも、知財を侵食する手段にもなります。今回の米国の動きは、AIモデルの能力そのものを守るための国際的なルール形成が始まったことを意味しています。
AI時代の知的財産保護は、もはや特許や著作権だけで語れる問題ではありません。契約、技術的防御、証拠保全、国際政治、経済安全保障が交差する領域になっています。企業に求められるのは、AIを使う側としての利便性だけでなく、AIを守る側としての戦略的な視点です。
