2026年1月に公表されたスタンフォード大学およびイェール大学の研究は、生成AIをめぐる著作権論争において、決定的とも言える転換点を示しました。これまでAI開発企業が繰り返し主張してきた「AIは人間のように概念を学習しているのであり、著作物をコピーして保存しているわけではない」という説明は、この研究によって根底から揺さぶられています。
本研究が突きつけたのは、最先端の商用大規模言語モデル(LLM)が、著作権で保護された書籍を極めて高精度で記憶し、特定の条件下ではほぼ原文通りに出力できてしまうという現実です。対象となったのは、AnthropicのClaude 3.7 Sonnet、OpenAIのGPT-4.1、GoogleのGemini 2.5 Pro、そしてxAIのGrok 3といった、現在の市場を代表するモデルでした。
「フェアユース」の前提を崩す発見
生成AIを巡る最大の法的争点は、著作権法におけるフェアユース(公正な利用)が成立するかどうかです。AIベンダー各社は、モデルの重み(Weights)の中に著作物のコピーは存在せず、統計的なパターンを学習しているにすぎないと説明してきました。しかし今回の研究では、その前提自体が疑わしいことが示されました。
研究チームは、J.K.ローリングのハリー・ポッターと賢者の石を含む13冊の書籍を用い、商用API経由でLLMからどこまで原文を引き出せるかを検証しました。その結果、Claudeは約96%、Geminiは約77%、Grokは約70%という高い再現率を示し、GPT-4.1でさえも部分的な抽出に成功しました。これは、ガードレールが施されたブラックボックス型モデルで起きた現象であり、企業サーバー上のAIが事実上「著作物の圧縮アーカイブ」として機能し得ることを意味しています。
シンプルすぎる抽出手法が示す脆弱性
特に衝撃的なのは、抽出手法が極めて単純だった点です。書籍冒頭の一部を与え、「原文と全く同じように続きを出力せよ」と指示するだけで、GeminiやGrokは抵抗なく応答しました。ClaudeやGPT-4.1も、複数のプロンプトを試すことでガードレールをすり抜けることが可能でした。
一度出力が始まると、その続きを入力として再利用するだけで、長文を連続して生成させることができます。このプロセスにより、『1984年』や『フランケンシュタイン』といった作品が丸ごと抽出された事例も報告されています。安全性を重視してきたはずのモデルほど、一度突破されると高精度で出力を続けてしまうという皮肉な結果も浮き彫りになりました。
「記憶」は錯覚ではない
本研究の信頼性を高めているのは、「nv-recall(near-verbatim recall)」という厳格な評価指標です。100語以上の連続した一致のみをカウントするこの指標でも、数千語規模の一致が確認されました。さらに、学習データのカットオフ後に出版された書籍では抽出が不可能だったことから、これは単なるハルシネーションではなく、「学習データに含まれていたものを正確に記憶している」結果であることが裏付けられています。
この点は、2025年にMetaのオープンモデルLlama 3.1を対象に行われた研究とも整合します。モデルが巨大化するほど、人気作品を深く記憶し、逐語的に再現できるリスクが急増することが、数学的にも示されていました。
法的・社会的インパクト
今回の成果は、進行中の著作権訴訟に大きな影響を与える可能性があります。AIが原文に近い形で書籍を出力できるのであれば、それは「変革的利用」とは言い難く、単なる複製と評価される余地が大きくなります。実際、ドイツの裁判例では、モデルの重みに著作物が保存されていること自体を侵害とみなす判断も現れています。
さらに深刻なのは経済的側面です。研究によれば、Geminiを用いれば数百円程度のAPIコストで書籍1冊分を抽出できる可能性があります。これは、電子書籍を正規に購入するよりも安価であり、出版業界にとって新たな「デジタル万引き」の脅威となり得ます。
終わりに――問われるAIの未来
今回の研究が示したのは、AIモデルが「創造的な知性」であると同時に、「高度に圧縮された無断転載アーカイブ」でもあり得るという厳しい現実です。ガードレールは万能ではなく、内部にデータが存在する限り、引き出す方法は見つかります。
もはや「学習だから問題ない」という説明は社会的に通用しない段階に入ったと言えるでしょう。AI業界は、データセットの徹底的なクリーンアップか、正当なライセンス取得という重い選択を迫られています。生成AIの進化が続くこと自体は疑いありませんが、その進化が誰の犠牲の上に成り立つのかが、今まさに問われているのです。
