リプ・ブ・タン インテルCEO。/聯合ニュース

インテルとAMDの株価が急騰している背景として挙げられる「エージェンティックAI」が、これまでグラフィックス処理装置(GPU)に押されて「冷遇」されてきた中央処理装置(CPU)の「ルネサンス」を牽引している。インテルは今年1〜3月期の決算発表直後に20%超急騰し、AMDもサーバーCPU需要の再評価の流れに乗って10%台の上昇となった。

ここに、エージェンティックAIのサービス実装には一般的なサーバーよりも多くの容量と速度が必要となるため、AIが引き起こしたメモリー需要に続いて追加需要を生み出すと見られている。AIが「話す段階」から「働く段階」へ移行するにつれ、メモリーのスーパーサイクルも想定より長期化する可能性に一段と説得力が増している格好だ。

◇ AIインフラ市場の新エンジンとして浮上したAIエージェンティック

エージェンティックAIは、平たく言えば「自ら業務を処理するAI」を指す。従来の生成AIが質問を受ければ回答を作るにとどまったのに対し、エージェンティックAIは利用者の目標を把握したうえで作業を複数段階に分解し、必要な資料を探し、外部プログラムを呼び出し、結果を検討した後、次の行動にまでつなげる方式である.

例えば従来のAIは「出張計画を作ってほしい」と求められれば日程表の案を作成する水準にとどまったが、エージェンティックAIは航空便を検索し、ホテル候補を比較し、会社の出張規程を確認し、カレンダーの予定を調整し、承認依頼メールまで用意する形で動作する。ここでの要点は、AIが「答える道具」から「業務を遂行するシステム」へと変わる点である。

このような変化がCPU需要を押し上げている。AIモデルの学習段階ではGPUが主役だが、エージェンティックAIが実サービスに入るとCPUの役割が増える。利用者のリクエストに応じて文書を検索し、データベースを照会し、セキュリティ権限を確認し、API(アプリケーション・プログラミング・インターフェース)を呼び出し、複数の作業を順序立てて配分する過程は、通例CPUの領域であるためだ。GPUがAIの演算エンジンだとすれば、CPUは各作業を分けてつなぐ現場管理者に近い。

◇ 数字で示された波及効果…メモリー超好況にも追い風

AMDのCPU画像。/ロイター聯合ニュース

AIエージェンティックの需要は、今年1〜3月期のインテルとAMDの業績で数字として確認されている。AMDは今年1〜3月期のデータセンター部門の売上高が58億ドルで前年同期比57%増加し、この成長にEPYCサーバープロセッサー需要が大きく寄与したと説明した。インテルも今年1〜3月期のデータセンター・AI部門の売上高が51億ドルで前年同期比22%増えた。AI投資がGPUの購入にとどまらず、CPUを含むデータセンター全体のインフラ投資へと広がっている格好だ。

メモリー需要も同じ理由で増加している。エージェンティックAIの要は、複数回推論し、中間結果を保存し、以前の対話や文書を記憶し、検索結果と業務データを継続的に参照する点にある。この過程でサーバーDRAMはAIの作業空間となるため、大容量DRAMとNANDフラッシュが必要となる。単にモデルを動かすためのメモリーだけでなく、セッション状態、ベクターDB、検索インデックス、文書キャッシュ、作業記録を格納するメモリー需要が併せて拡大する。

半導体業界関係者は「高帯域幅メモリー(HBM)がメモリー超好況の一次始動要因だったとすれば、エージェンティックAIは超好況をDDR5・サーバーDRAMまで拡張・延長する二次始動要因として既に作用している」と述べ、「CPUがAIサービスのオーケストラを指揮するには、DRAM、NANDなどの先端メモリーに加え、Compute Express Link(CXL)のような新概念のメモリーインフラも浮上し得る」と説明した。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。