米バージニア州アッシュバーンにあるアマゾンウェブサービス(AWS)のデータセンター。/ロイター聯合ニュース

人工知能(AI)インフラの必須資源である高帯域幅メモリー(HBM)とDRAMの価格が最大3〜4倍まで跳ね上がり、企業間の競争力格差が広がるとの懸念が出ている。OpenAI、グーグル、アマゾンなどのビッグテックは大規模な先行購入でサプライチェーンにおける優位を占めている一方、後順位に回ったAIサービス企業は高騰する半導体価格の負担をそのまま背負う構造であるためだ。業界では「AI時代の新たな参入障壁はメモリーだ」という見方まで出ている。

11日、フォーチュン、ザ・ヴァージなど主要海外メディアによると、OpenAIをはじめとする米ビッグテックとサムスン電子、SKハイニックスが締結した大規模供給契約が、現在の汎用DRAMの深刻な供給不足を招いた主因として指摘されている。実際、OpenAIは10月に協力意向書(LOI)を締結し、グローバルAIインフラプロジェクト「スターゲイト」に合流すると発表した経緯がある。これにより月間最大ウエハー90万枚規模のDRAMを購入するとされる。これは世界のDRAM月産量150万枚の半分を上回る規模だ。

このほかにもグーグルやMeta(メタ)などもブロードコムを通じてサムスン電子、SKハイニックスのメモリー半導体を大規模に調達している。特にサムスン電子は第5世代HBM(HBM3E)からブロードコム向けの納入量を大幅に増やし、SKハイニックスと二強体制を形成している。両社は全DRAM生産量の約40%から最大で半分の水準をHBMに割り当てていると分析される。

メモリー半導体はGPUに劣らずAIの学習・推論コストを左右する中核要素だ。直近1〜2年の間にHBM価格は最大3〜4倍、汎用DRAM価格も2倍近く上昇し、コスト負担が雪だるま式に膨らんでいる。メモリー各社が生産ラインをHBM中心に転換したうえ、グローバルAI企業が大規模数量を先取りしたことで、一般企業が購入できる供給量は大きく減った。

ビッグテックに比べ購買力が弱いIT企業はHBMのみならず汎用DRAMの調達でも困難に直面するか、過度な費用を支払わざるを得ない状況だ。こうした流れは韓国のプラットフォーム企業にも直撃となる。NAVER、カカオなどは自社データセンターを備えるが、大規模モデルの学習には依然として外部のGPU・HBMといった中核ハードウエアを継続的にアップグレードする必要がある。

メモリー半導体の購買コストが青天井で高騰するなか、韓国のプラットフォーム企業のAIインフラ投資も停滞する可能性が高い。NAVERに詳しい関係者は「現在高騰している半導体の購買コストを払い続けながら大規模言語モデル(LLM)学習インフラを最新状態に維持できる企業はビッグテック以外にない」と述べ、「自社モデルによる学習コストが指数関数的に増加する場合、韓国企業は最適化のみを支援し、中核モデルはビッグテックに依存する防御的な戦略を選ぶ可能性が高い」と説明した。

AIの品質がサービス競争力を左右する検索・広告・レコメンド・コマース分野では、この負担がより鮮明に表れる。米欧のビッグテックが最新HBM搭載の超大型モデルを継続的にアップグレードする一方、韓国企業は同じ速度で対応するのが難しく、中長期的にサービス品質の格差が広がるとの懸念も提起される。

スタートアップのエコシステムも揺らぐ可能性が大きい。中小企業が自社モデルの開発を断念し、OpenAIやグーグルなど海外への依存度を高めるほど、韓国の技術自立度は低下し、プラットフォーム企業もグローバルAIサプライヤーに従属する構図が固定化する。実際、昨年と今年の間に多くのスタートアップがAI学習コスト負担を理由に事業の再調整を発表した。業界関係者は「メモリー半導体価格の上昇は単なる原価負担ではなく、AI時代の新たな『資本の壁』だ」と述べ、「調達力の格差が技術格差につながる典型的なサプライチェーンの二極化だ」と説明した。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。