OpenAIに続き、別のAI企業であるAnthropicも最初の一撃を放った。先日、公式発表があった…リリースステートメント報告書は、ディープシークを含む中国のAIスタートアップ3社が、競合他社のモデル機能を強化するために、大規模な「蒸留攻撃」を通じてクロード氏の会話データを違法に抽出していると主張している。

大規模言語モデリング(LLM)技術における競争が激化する中、高品質な学習データは様々な企業にとって最も貴重な資産となっています。報道によると、AIチャットボット「Claude」の開発元であるAnthropicは、自社ウェブサイトで強い抗議声明を発表し、中国のAI企業DeepSeek、Moonshot、MiniMaxを具体的に名指しし、Claudeの機能を不正に盗もうとする「業界規模の作戦」を展開していると非難しました。
2.4 の偽アカウントと 1600 万件の会話を含む「産業レベル」の盗作。
AI業界において、「モデル蒸留」という言葉は新しいものではありません。一般的には、より強力なモデル(GPT-4やClaudeなど)の出力を学習することで、より小規模で弱いモデルを訓練・改善することを指します。蒸留技術は特定のライセンスの下では合法的な最適化手法ですが、Anthropicは、これらの企業の行為は一線を越え、悪意のある攻撃に該当すると強調しています。
アントロピックは、これら3つの中国AI企業が合計約2万4000の偽アカウントを用いて、クロードと1600万回以上の集中的な会話を行っていたと指摘しています。アントロピックは、これらの競合他社がクロードを研究開発における「近道」として利用していると考えています。これは、より高度なAIモデルを迅速に開発するためだけでなく、元のメーカーが設定したセキュリティ障壁を回避する可能性もあるためです。
証拠は圧倒的ですか?アントロピックは防御力を強化することを誓います。
Anthropic はどうやってこれらの「モグラ」を捕まえたのでしょうか?
公式声明では、IPアドレスの相関関係を追跡し、メタデータ要求とインフラ特性を比較し、同様の異常な行動を観察したAI業界の同業者と相互参照することで、これらの蒸留攻撃を上記の特定の中国企業3社に結び付けることができると「高い確信」を持っていると述べています。
実は、これは業界で初めての事例ではありません。昨年初めには、OpenAIも同様の告発を行い、競合他社が蒸留技術を用いて自社のモデル機能を模倣していると主張し、その後、多数の疑わしいアカウントをブロックしました。これに対し、Anthropicはシステムの防御メカニズムを全面的にアップグレードすることを約束し、将来の蒸留攻撃の実行をより困難にし、システムによる検出を容易にしました。
しかし、この事件には皮肉な面もある。アンスロピックが他社を「データ窃盗」で声高に非難している一方で、同社自身も現在複数の音楽出版社から批判に直面しているのだ。侵害訴訟彼はクロードを指導するために著作権のある歌詞を違法に使用したとして告発された。
視点の分析
この「蒸留戦争」は、現在の AI 業界の発展における最も苛立たしくも現実的な側面、つまり高品質のトレーニング データが枯渇しつつあることを明らかにしました。
DeepSeekやMoonshotといった中国のAI企業は、後発で創業した、あるいは米国のハイエンドコンピューティング禁止措置の制約を受けているため、インターネットからクリーンで選別されたデータを用いて一流モデルをゼロから学習させるのは、時間がかかりすぎ、計算コストも高すぎます。最速の方法は何でしょうか?それは、世界で最も賢いAI(ClaudeやChatGPTなど)に直接「質問」し、そこから得られた整理された論理的に厳密な「黄金の答え」を自社のモデルに入力することです。これは「蒸留」と呼ばれます。
アントロピックの怒りは当然と言えるでしょう。何億ドルもの計算能力を費やして得られた彼の努力の成果が、何万ものアカウントのAPI呼び出し料金を使って、簡単に「盗まれ」てしまったのですから。
しかし、これは現在のAI市場における一種の「蛇」のようなエコシステムを反映しているとも言えます。巨大テック企業は、基盤となるモデルの学習にインターネット上の著作物を無断で収集し、スタートアップ企業は巨大テック企業のモデルを無断で収集し、自社の小規模モデルを学習させています。真にグローバルなAIデータの著作権規制が確立されるまで、この「あなたが私をコピーすれば、私もあなたをコピーする」という争いは激化する一方でしょう。


