オープンAIに続きAnthropicも、中国の人工知能(AI)企業が自社AIモデルの結果物を無断で抽出したと主張した。
AnthropicはディープシークとムーンショットAI、ミニマックスなど中国AI企業3社が自社AIモデル「クロード」の機能を不法に抽出した事実を確認したと23日(現地時間)に明らかにした。Anthropicは「中国企業が2万4000余りの偽アカウントを通じてクロードとの対話1600万件以上を生成した」とし、「ディープシークは15万件、ムーンショットAIは340万件、ミニマックスは1300万件の対話を通じて結果物を抜き取った」と説明した。
Anthropicは中国企業が「蒸留(distillation)」手法を活用したと説明した。蒸留手法とは、他のAIモデルが出す回答を学習データとして活用し、類似の性能を備えたモデルを作る方式である。米国のAI企業も蒸留手法を活用する。これを用いれば上位モデルに匹敵する能力を備えた軽量な下位モデルを作ることができるためだ。グーグルが上位モデル「Geminiプロ」を基に「Geminiフラッシュ」を作るやり方である。
しかし競合モデルを対象に蒸留手法を活用することは、実質的に盗用や奪取とみなされる。
Anthropicは、不法に抽出されたモデルは必要な安全装置がない可能性が高く、深刻な国家安保上のリスクを招く恐れがあると警告した。クロードを含む米国のAIモデルは、脅威行為者がAIを生物兵器開発や悪意あるサイバー活動に悪用しないよう阻止するシステムを備えているが、蒸留手法で抽出されたモデルはこうした安全装置が除去される可能性が高いという説明である。
Anthropicは国家安保上の理由で中国国内のクロードへの接続を禁じているが、中国企業はこれすら迂回して蒸留手法を活用したと付け加えた。Anthropicは「米国がAI競争で優位を維持できるよう(AIチップの)中国向け輸出統制を継続的に支持してきたが、蒸留攻撃は米中のAI格差を別の方法で縮め得るため、輸出統制を無力化する」と指摘した。
同社は「中国企業の蒸留攻撃に対応するため、大規模アカウント集団間の組織的な活動を識別できる検知ツールを開発し、認証手続きを強化するなど安全装置を強化している」としつつも、この問題を解決するにはAI業界とクラウド事業者、政府が協力すべきだと強調した。
先にダリオ・アモデイAnthropic最高経営責任者(CEO)は、ドナルド・トランプ政権がエヌビディアの高性能AIチップの中国輸出を許容する方針について「北朝鮮に核兵器を売るのと似ている」とし、「国家安保に甚大な含意を持つ誤りだ」と強く批判した。
先立ってChatGPTの開発元であるオープンAIも12日、米下院の中国特別委員会に提出したメモを通じ、ディープシークなど中国企業が蒸留手法を活用して米国のAIモデルの結果物を抽出しているとの懸念を表明した。