ジェンスン・フアン エヌビディア最高経営責任者(CEO)。/エヌビディア

エヌビディアが人工知能(AI)の推論に最適化した新型チップを公開した。これと合わせて新しい中央処理装置(CPU)も投入した。AIエージェント時代に適したインフラを提供する構想である。

ジェンスン・フアン最高経営責任者(CEO)は16日(現地時間)、米カリフォルニア州サンノゼ所在のSAPセンターで開いたエヌビディアの年次開発者会議(GTC 2026)の基調講演を通じて、「グロック(Groq)3言語処理装置(LPU)」を次世代AIチップ「ベラ・ルビン」に統合すると明らかにした。

これにより「ルビン」グラフィックス処理装置(GPU)とLPUの役割を分担し、膨大なデータを扱う大規模演算はGPUが担い、極めて高速なLPUはAIの応答処理を担当して効率を高める構想である。「ベラ・ルビン」はCPUである「ベラ」36基とGPU「ルビン」72基を一体で構成し、既存製品のブラックウェル比で推論性能は5倍高め、トークン当たりコストは10分の1水準に下げた製品で、今年発売される。

フアンCEOは「ルビン」の次世代GPUである「ファインマン」も紹介した。ファインマンは「ロザ」という新CPUとともに動作する。LP40 LPUを搭載する予定だ。フアンCEOは「来年までにエヌビディアのAIチップ売上機会が少なくとも1兆ドル(約1千500兆ウォン)に達する」と見通した。

フアンCEOは、LPUとベラ・ルビンの結合を通じて、パラメーター(媒介変数)が兆単位のAIモデルの推論スループットを35倍向上させ、低遅延(low latency)推論能力を高められると説明した。エヌビディアは具体的に、LPU256基を一体で構成したLPXラックがベラ・ルビンに統合されると明らかにした。これにより、ベラ・ルビン・スーパーコンピューターの部品は今年1月のCES 2026で発表した当時の6種から、LPUを含む7種に増えた。

フアンCEOはまた新CPU「ベラ」と、これを256基搭載したCPUラックも披露した。さらに既存のx86方式のCPU比で性能を1.5倍、エネルギー効率を2倍高めたというのが同社の説明である。ベラCPUには、エヌビディアがAI実行のために自ら設計した「オリンポス(Olympus)」コアも搭載され、x86 CPU比で3倍のメモリ帯域幅を提供する。

エヌビディアはこうした製品を通じて「AIエージェント」市場を攻略するとみられる。AIエージェントは一般的なAIチャットボットと異なり、より高速な処理と制御能力が求められる。GPUでデータ処理速度を高め、タスクを具体的に指示する役割はLPUが分担する構造だ。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。