ダリオ・アモデイAnthropic最高経営責任者(CEO)/聯合ニュース

人工知能(AI)の安全性を強調してきた「OpenAIの対抗馬」Anthropicが、安全重視の方針を緩和した。高い水準の安全性を堅持すれば競争で後れを取る可能性があるためだ。

Anthropicは24日(現地時間)に自社サイトで公開した「責任ある拡張ポリシー(Responsible Scaling Policy)3.0」で、核心的な安全措置を緩和すると明らかにした。従来はAnthropicのAIモデルが危険であると分類される可能性があれば開発を中断していたが、競合が同等もしくはそれ以上のモデルを先に投入した場合は、開発中断措置を適用しないことにした。

これは2023年9月に発表した方針と比べると大きな方向転換だとウォール・ストリート・ジャーナル(WSJ)は評価した。当時Anthropicが示したモデル開発とテストのガイドラインは、同社を業界で最も安全を重視する企業の一つとして位置付けるものだった。

AnthropicはOpenAI、グーグル、イーロン・マスクのテスラ最高経営責任者(CEO)が率いるxAIなど米国の競合のみならず、中国のAI企業とも競合している。AI企業は今年に入り最先端のAIモデルを相次ぎ披露している。

足元では米国防総省と自社AIモデル「クロード」の軍事的活用範囲を巡って対立している。ピート・ヘグセス米国防長官は、Anthropicが27日までに国防総省の要求に同意しない場合、国防総省との契約を失うか、「サプライチェーン・リスク」企業指定や国防物資生産法(DPA)の適用などの不利益を受け得ると通告した。

Anthropicは今回の安全方針の変更が、AIの発展速度と連邦レベルでのAI規制の不在を反映したものだと説明した。会社は「過去3年間、AI能力が急速に進歩したにもかかわらず、AI安全に関する政府の対応は遅かった」とし、「政策環境はAI競争力と経済成長の優先へと移り、安全中心の議論は連邦レベルでいまだ意味のある進展を遂げていない」と述べた。その一方で、業界最高水準の安全基準を維持すると強調した。

Anthropicは今回の決定が米国防総省との協議とは無関係だと付け加えた。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。