エヌビディアのAIアクセラレーターH200。/エヌビディア提供

エヌビディアの人工知能(AI)アクセラレーターH200が需要に追いつかず、グローバルなAIインフラ市場は急速な供給不足に直面する見通しだ。グラフィックス処理装置(GPU)の注文規模は今年ベースで最大200万個に達する一方、当面確保可能な数量は70万個前後にとどまる。GPUが適時に供給されなければデータセンターの構築スケジュールが揺らぐ恐れがあり、ビッグテックは代替策を模索するため特定用途向け半導体(ASIC)に目を向けている。

5日、市場調査会社トレンドフォースによると、今年のAIサーバー市場ではクラウドサービス企業の自社製ASIC需要がGPU需要の成長率を上回ると観測された。クラウド企業が使用するASICの成長率は44.6%で、GPUの成長率16.1%より高い見通しだ。GPU供給の制約がASIC導入の加速につながる構造的なシグナルと解釈できる。

汎用性と高い性能、迅速なAIインフラ構築を強みとするGPUのサプライチェーンリスクが、今年ピークに達するとの見方が業界で広がっている。GPUはプロセス、パッケージング、高帯域幅メモリー(HBM)まで複合的に絡み合っており、特定の工程でボトルネックが生じると全体の供給が滞る。特にエヌビディアに集中するAI半導体需要は急増しているが、エヌビディアと世界最大のファウンドリー(半導体受託生産)企業であるTSMCの生産能力は需要の50%も賄えていない。

TSMCはAIアクセラレーター生産に不可欠なCoWoS(チップ・オン・ウェハー・オン・サブストレート)などの最先端パッケージング工程ラインを拡張している。ただし増設投資に時間を要するため、今年急増する受注量と実際に出荷可能な数量の間にギャップが生じるのは避けられない。

これを受け、昨年にグーグルのテンソル処理装置(TPU)を皮切りに新風を巻き起こしたASICに注目が集まっている。ASICは特定のAIワークロードに合わせて設計されるため、初期開発コストは大きいが、長期的には性能当たりの電力効率と総所有コスト(TCO)の面で有利だ。先にグーグルはTPUを通じてAI学習と推論の相当部分を自社で消化しており、アマゾンもトレーニアムとインファレンシアといった専用チップを前面に出し、クラウドのコスト構造を変えつつある。

市場調査会社モードール・インテリジェンスは半導体市場レポートで、AIアクセラレーター市場においてASIC部門が2030年まで年平均成長率(CAGR)約28%を記録すると予想した。別の市場調査会社であるクリーデンス・リサーチも、生成型AI ASIC市場規模が2024年約249億ドルから2032年約1867億ドルまで拡大すると展望し、年平均約28.6%の成長率を見込むと予測した。

業界では、今年がASIC市場成長の重要な分岐点になると見ている。アマゾン・ウェブ・サービス(AWS)関係者は「今回の供給不足は短期的な現象だが、意思決定には長期的な影響を残す」と述べ、「ビッグテックの立場ではGPUはもはや安定的な『基礎資材』ではなく、外部要因によって揺らぎ得る戦略資産になった。これにより新規データセンター投資計画でGPU依存度を下げ、ASIC比率を高めるシナリオが現実的な代替案として浮上している」と語った。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。