高帯域幅メモリ(HBM)の基本構造を考案し「HBMの父」と呼ばれるカイスト電気・電子工学部のキム・ジョンホ教授は、3日、ソウル・光化門プレスセンターで開かれた技術説明会でこう述べ、HBF(高帯域幅フラッシュ)ロードマップを公式に示した。キム教授は「AIが向かう方向がこのままであれば、HBFは選択ではなく必然だ」と強調した。DRAMを積層したHBMが演算に必要な高速メモリを担うなら、HBFはNANDフラッシュを基盤とする大容量メモリとしてAIが継続的に呼び出して使う『記憶ストレージ』の役割を果たすという説明だ。
キム教授がHBFを打ち出した背景にはAIの進化がある。AIは学習から推論へ、さらにエージェントAIへと発展している。質問一つに答えて終わる段階を越え、エージェントAIはメールを読み、文書を整理し、外部資料を探して判断まで遂行する連続的な作業を行う。ここにテキストだけでなく画像・映像・音声を同時に処理するマルチモーダルAIが結合し、AIが扱うべきデータ量とメモリ要件は従来とは異なる水準に拡大している。
メモリが重要になるのもこのためだ。キム教授は現在のAIモデルの基本構造であるトランスフォーマーモデルを説明し、「AIが入力を理解する過程で生成されるKVキャッシュは単純なデータではなく、単語と概念間の関係を収めた一種の暗号帳だ」とし、「私はこれをAIが使う神の言語と呼ぶ」と語った。このKVキャッシュは単語を一つずつ生成する過程で継続的に参照され、文脈が長くなりマルチモーダルに向かうほど、その規模は数百ギガバイト(GB)からテラバイト(TB)、場合によっては数十TBまで拡大する。
問題は、このように肥大化する莫大な記憶を既存のHBMだけでは賄えない点である。キム教授は「HBMはどれだけ積んでも200GB前後だ」とし、「KVキャッシュが数百GB、TBへと拡大する瞬間、HBMだけでは構造的に不可能だ」と述べた。キム教授は「AIが最初の単語を遅く出し、全体の生成速度が落ちる理由も結局はメモリの限界のためだ」と説明した。
キム教授が示した解法がまさにHBFだ。HBFは大容量NANDフラッシュを基盤とするメモリで、HBMより速度は遅いがSSDよりはるかに速く、何よりメモリ容量を大きく拡張できる。キム教授はこれを図書館に例えた。キム教授は「HBMが机の上に置いた参考書なら、HBFはすぐ隣にある書架だ。オープンブック試験では机だけでは足りず、結局は書架から本を取り出さなければならない」と語った。エージェント・マルチモーダルAIに進むほど、この『書架型メモリ』が不可欠だという説明である。
実際、エヌビディアは次世代アーキテクチャ「ベラ・ルービン(Vera Rubin)」に、AIの対話文脈を保存する専用プラットフォーム「インファレンス・コンテキスト・メモリ・ストレージ(Inference Context Memory Storage)」を導入すると明らかにした。ジェンスン・フアンCEOは「CES 2026」で「このプラットフォームが世界のAIの作業メモリを担う巨大なストレージ市場へ成長する」と述べた。業界では、この新規プラットフォームの中核メモリとしてHBFが採用される可能性が大きいと見ている。グラフィックス処理装置(GPU)の中核メモリがHBMとして定着したように、HBFがAI推論用ストレージの標準メモリとして浮上し得るとの分析だ.
この日、キム教授はHBFを含むメモリアーキテクチャのロードマップも併せて公開した。初期には推論中心の環境でHBFが先に適用される。大規模なKVキャッシュと長い文脈データはHBFが担い、高帯域幅演算とモデルパラメータ処理はHBMが担当する方式だ。すなわち、速度が必要な領域はHBMが、容量が必要な領域はHBFが分担する構造である。キム教授は、AIワークロードが拡大するほどメモリシステム内でHBFの役割と比重が継続的に大きくなると説明した。
キム教授は、こうした流れをAI時代のメモリ主導権競争と説明した。過去のPC時代にはCPU、スマートフォン時代にはアプリケーションプロセッサ(AP)がコンピューター構造を規定したが、AI時代にはメモリ構造が性能と拡張性を左右する中核要素として浮上したということだ。特にキム教授は「HBMとHBFを同時に手がけられる国は事実上、韓国だけだ」と述べ、サムスン電子とSKハイニックスに直接言及した。HBMとNANDフラッシュをいずれも保有する企業が限られているだけに、両社とも競争力を備えているという説明だ。
キム教授は、GPUの性能向上とメモリ構造の変化は切り離せない問題だと強調した。AI演算を担うGPUがいくら速くなっても、これを支えるメモリ階層が追随できなければ、性能と拡張性の双方で限界に突き当たるしかないということだ。このため、グローバルGPU企業が韓国のメモリ企業との協力を一層強化するようになると見通した。
キム教授は「今のコンピューター構造とAIモデルが維持される限り、AIは引き続きメモリをより多く使わざるを得ない。2038年にはHBF需要がHBMを上回る」とし、「AIの性能競争が演算中心からメモリ構造の競争へと移行しており、HBMとHBFを包括するメモリ階層を誰が先に設計・主導するかが産業の方向性を分ける」と述べた。