サム・オルトマンOpenAICEO。/聯合ニュース

オープンAIが昨年からエヌビディアのグラフィックス処理装置(GPU)に代えてChatGPTの推論用に活用する新たな人工知能(AI)半導体の調達を模索しているとの報道を受け、両社の神経戦が招く「スノーボール」に業界の関心が集まっている。

従来エヌビディアのGPUを大量に使用してきたグーグル、Meta(メタ)、アマゾンウェブサービス(AWS)などのビッグテックも、この数年間にわたり自社製AIチップの開発に力を注ぎ、一部サービスに導入を始めた。この中で生成AI市場のリーダーであるオープンAIもエヌビディアとせめぎ合うなか、エヌビディアの代替を標榜する特定用途向け半導体(ASIC)市場に追い風が吹くとの見方も出ている。

4日付のロイター通信など主要海外報道を総合すると、オープンAIはChatGPTのようなAIモデルがユーザーの質問に回答を生成する「推論」過程でエヌビディア製チップの性能に限界を感じているという。とりわけコーディングなどのソフトウエア開発や、AIとソフトウエア間の通信といった特定分野で、エヌビディアのAIチップを基盤とするChatGPTの応答速度が期待値に達していないという説明だ。

実際、オープンAIはこれまでGPUへのソフトウエア、ハードウエア両面の依存度を下げようとする姿勢を示してきた。とりわけ昨年、グーグルとブロードコムが共同開発したテンソル処理装置(TPU)がグーグルのAIサービスの稼働でGPUより高い有用性を証明したことで、オープンAIもGPU一辺倒のAIインフラを多様化しようとする動きを見せてきた。

先月、オープンAIはウエハー全体を一つの巨大チップとして作り、演算とデータ保存を単一チップで可能にする技術を持つ「セラブラス」と供給契約を結んだ。ロイターは、オープンAIが半導体企業「グロック(Groq)」とも交渉したが、エヌビディアとグロックが昨年12月にライセンス契約を締結したことで協議が中断されたと伝えた。オープンAIは今後、推論演算需要の約10%をエヌビディアのAIチップではない代替品で賄う計画だとされる。

オープンAIやビッグテックがGPUの使用比率を下げることは、投資の効率化という観点でも重要な論点だ。大規模言語モデル(LLM)では演算性能が原価を意味する。GPUの製品単価に加え、電力やネットワーキングまで含めたTCO(総所有コスト)を下げるには、GPUベースのインフラは非効率だという指摘が繰り返されてきた。ビッグテックがGPUの代わりに自社のインフラ、サービス、ソフトウエアに最適化した自社製AIチップを開発するのも、コスト削減に直結している。

オープンAIの中長期的な技術ロードマップの実現には、既存のGPUだけではやがて限界が来るとの見方もある。ロイターは関係者の話として「オープンAIは訓練と推論の需要に耐えうるデータセンターをギガワット(GW)単位で増やす計画を構想しており、オラクル、ソフトバンクなどと進める大規模AIデータセンタープロジェクトは数年内に最大10GW級の容量を目標とする。しかしエヌビディアのGPUだけでは、電力調達やエネルギー費用などが足かせになるだろう」と伝えた。

もちろん、オープンAIや他のビッグテックによる自社製AIチップの開発が、直ちにGPUの影響力低下に結びつくわけではない。エヌビディアは長年にわたり自社GPUに最適化したCUDAのようなソフトウエア生態系を構築しており、汎用性の観点では依然として「GPUを代替するAI半導体はない」というのが専門家の大方の見方である。

国内IT業界の関係者は「オープンAIは現在、GPUを中心に形成されたAIチップを多様化し、供給業者をマルチベンダーで構築しようとする意欲が強い。そうしてこそ、より効率化されたAIインフラを構築でき、コスト削減が可能になるためだ」と述べたうえで、「一方のエヌビディアは、オープンAIをエヌビディアの生態系に縛り留めるため圧力をかけると同時に、次世代GPUの性能を高めるべくサムスン電子、SKハイニックスなどに、より高い高帯域幅メモリー(HBM)の性能基準を提示している」と説明した。

一部では、両社が投資資金を巡り「力比べ」を始めたとの見方も出ている。エヌビディアがオープンAIの投資ラウンドに投じた金額が1000億ドルに迫ることはないとして投資縮小を示唆すると、オープンAIが「われわれも(GPUの)代替品を探っている」と不満を露わにしたという話だ。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。