オープンAIが半導体企業セレブラスのチップで稼働する人工知能(AI)モデル「GPT-5.3-コーデックス-スパーク」を2月12日(現地時間)に公開した。/ セレブラス

ChatGPTの開発元であるオープンAIが「エヌビディアの対抗馬」とされる半導体企業セレブラスのチップで駆動する人工知能(AI)モデルを披露した。

オープンAIは12日(現地時間)、コーディング特化AIモデル「コーデックス(GPT-5.3-コーデックス)」の軽量版である「GPT-5.3-コーデックス-スパーク」を公開した。今回投入した新規モデルは複雑な演算よりも高速な作業処理速度に重点を置いた。

オープンAIは、このモデルが毎秒1000個以上のトークンを処理でき、利用者が遅延をほとんど感じない「超低遅延」環境を提供すると説明した。トークンはAIモデルが処理するデータの単位であり、英語データを基準とする場合、一般的に単語1つが1トークンに該当する。

オープンAIは新モデルの高速な推論速度を実現するため、エヌビディアのグラフィックス処理装置(GPU)の代わりにセレブラスの「ウェハースケールエンジン3」(WSE-3)を採用した。セレブラスは、ウェハーを細かく切断してチップを製造する他の半導体メーカーと異なり、ウェハー全体を1つの巨大なチップにする「ウェハースケールエンジン」(WSE)技術を保有している。

これにより、演算を行うチップとメモリチップを接続する必要がなく、単一のチップ上で演算とメモリをすべて利用できる。会社はこの方式でチップ間のデータ移動に消費される電力を節約し、ボトルネックを防いでデータ処理速度も高められると説明した。セレブラスは自社チップの応答速度が従来のGPU比で最大20倍速いと主張する。

半導体企業セレブラスの「ウェハースケールエンジン」(WSE)/ セレブラス提供

オープンAIは今回の協業について「セレブラスとのパートナーシップから生まれた最初のマイルストーンだ」とし、「(セレブラスのチップは)超低遅延環境を要するワークフローに特に強みがある」と明らかにした。ただし「(エヌビディアの)GPUは依然として当社の訓練・推論業務全般にわたり中核的な基盤だ」と付け加えた。

先月セレブラスは、今年から2028年までオープンAIに総計750メガワット(MW)規模のコンピューティングパワーを提供する契約を締結した。両社は今回の契約の具体的条件を開示しなかったが、海外報道は契約規模が100億ドル(約14兆ウォン)に達すると報じた。米国メディアは今月初め、オープンAIがエヌビディアのチップを用いたChatGPTの回答に満足せず代替策を模索していると報じたことがある。

オープンAIの今回の発表は脱エヌビディアの動きとも重なるとの分析が出ている。先にエヌビディアがオープンAIへの投資規模を縮小するとの報道が相次ぎ、両社間の不和説も浮上した。オープンAIはセレブラスのほか、米国の半導体メーカーであるブロードコムと組み、自社のAIチップを開発している。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。