SKハイニックスがエヌビディアと次世代ソリッドステートドライブ(SSD)の開発を正式化した。SKハイニックスはエヌビディアに高帯域幅メモリー(HBM)を供給し大きな業績を上げてきたが、顧客・サービス向けのカスタム製品開発がNAND型フラッシュ分野へ拡大している様相だ。
SKハイニックスは、NANDが用いられる高帯域幅フラッシュ(HBF)分野ではサンディスクと「標準策定」などのため協力中である。人工知能(AI)サービスが学習から推論へと移行するなか、揮発性ストレージであるHBMは技術的な限界に直面している。これを不揮発性ストレージであるNANDの革新で解決し、グローバル大手IT(ビッグテック)の要請に合致する製品を供給する趣旨だ。
◇ DRAMに続きNANDも「AIカスタム」開発が加速
16日半導体業界によると、キム・チョンソンSKハイニックス副社長は最近「2025人工知能半導体未来技術カンファレンス」(AISFC)に出席し、エヌビディアと従来比で性能が10倍向上したSSDを開発していると明らかにした。エヌビディアは「ストレージ・ネクスト」、SKハイニックスは「AI-N P」(AI NANDパフォーマンス)という名称で事前実証(PoC)を進めており、試作品の出荷は来年末が目標だ。両社は、毎秒の入出力処理能力を意味するIOPSが2027年には1億に到達し得ると見通した。
SKハイニックスはこれとあわせて8月からサンディスクと「HBF標準」策定手続きを進めている。HBFはDRAMを複数枚積層して帯域幅を高め、いわばデータの通り道を大きく広げたHBMと似た構造を持つ。NANDを積層構造で重ね、AIサービスに適した形にするということだ。SKハイニックスはHBFのアルファ版を来年1月末ごろに発売し、2027年には試作品を顧客企業に送り性能評価を進める中長期戦略を描いている。信栄証券は、HBFの商用化が進む2027年には市場規模が10億ドル(約1兆4000億ウォン)で立ち上がり、2030年には120億ドル(約17兆ウォン)まで成長し得ると予測した。
SKハイニックスが商用化前の段階から多様な企業と協業関係を構築するのは、従来の製品開発過程では見られなかったやり方だ。SKハイニックスのようなメモリー企業は汎用品を供給し、それを受け取るビッグテックが各自の目的に合わせて最適化を進める形でチップ開発が進行してきた。だがAIサービスでは各社に適合するメモリーチップが性能を左右する要因として浮上し、カスタム開発が求められている。
◇ DRAMが先に「カスタム開発」された理由
SKハイニックス・エヌビディア・サンディスクなど半導体企業が顧客・サービス向けカスタム開発戦略をNANDまで拡大した背景を理解するには、まずHBMがなぜ市場で台頭したのかを確認する必要がある。現在、NANDベースの技術革新が「HBMの限界」を克服する代替策とみなされているためだ。
AIの登場以前は、直列処理方式である中央演算処理装置(CPU)がコンピューターOSの動作に必要な演算を担ってきた。この構造ではメモリーはCPUが必要とするデータを提供する役割であり、大容量は求められなかった。だが膨大なパラメーターを基盤に演算が行われるAIを直列で処理しようとすると時間がかかり過ぎる問題が生じた。大規模な行列積とベクトル演算を基盤とするAIには、並列演算に特化したグラフィックス処理装置(GPU)がより適していた。実際、機械学習のためのオープンソースプラットフォームであるテンサーフローで同じ学習モデルをCPUで動かすと演算に17分55秒を要したが、GPUを使うと5分43秒に短縮されたという研究結果もある。
しかしGPUがAIに広く使われるようになると新たな問題が生じる。GPUの演算を最大限に活用するには、膨大なデータを絶え間なく供給される構造が必要だ。ところがCPU性能に合わせた既存のDRAMは順次転送構造と低い帯域幅を持ち、GPUが仕事を待って休む「メモリー遊休時間」が発生した。これはGPU全体の演算速度を低下させる「メモリーボトルネック」につながった。DRAMを積層して帯域幅を高め、一度に大量のデータをGPUへ送れるHBMが台頭した理由である。
◇ AI推論でHBMの限界が顕在化…NANDに注目
HBMを搭載したGPUは今年までAI市場で多くの課題を解決し、かなりうまく機能したとの評価を受ける。主要ビッグテックがこれまでAIの研究・開発(学習)段階を進めてきたためだ。だが今やAIサービスが商用段階に入り、実際の性能に影響する「推論」機能が重要になっている。
推論を基盤に利用者の質問に答えるAIでは、遅延時間の最小化が重要課題だ。業界によると、ChatGPTに搭載されたGPT-4モデルの場合、推論に3.6テラバイト(TB)が必要だが、現在HBM3E(第5世代)がGPUに提供する容量は約192ギガバイト(GB)にとどまる。推論要求にGPUを6〜7基束ねて使う必要があり、これはサービス提供に要するコスト上昇につながっている。
パーソナライズされたAIサービスもHBM容量が限界に達する要因とされる。AIが利用者の行動・会話を記憶し文脈に沿った応答を行うには、より多くのデータを保存しておく必要がある。揮発性ストレージであるHBMでは、パーソナライズ・推論の段階に入ったAIへの対応が難しいというわけだ。
◇ SKハイニックス、三つの領域に分け「NAND高度化」開発を進行
こうした限界を克服する代替技術として浮上したのが不揮発性ストレージであるNANDだ。個人別データを長く保存しつつ、推論で必要となる「長文」記憶にも適している。
SKハイニックスはこうした市場変化に対応し、AI時代に合ったNAND開発を大きく三つの区分で進めている。▲エヌビディアと既存SSDの性能をAIに合わせて開発する「AI-N P」▲サンディスクと協力中の「AI-N B」(HBF)▲超大容量(テラバイトからペタバイトへの拡張)を実現し、SSDの速度とHDDの経済性を同時に備えた中間階層ストレージ「AI-N D」などを通じ、AI時代に適合するNAND性能を実装するというものだ。
SKハイニックスは「AI-N P」開発プロジェクトを通じ、大規模AI推論環境で発生する膨大なデータ入出力を効率的に処理する中核技術の確保を目指す。AI演算とストレージ間のボトルネックを最小化し、処理速度とエネルギー効率を大幅に高めるという。これに向け、同社はNANDとコントローラーを新しい構造で設計中である。
HBF領域では、HBM市場シェア1位を築いたパッケージング能力をNANDにもそのまま適用し、開発スピードを高める戦略を進めている。ハン・ヨンヒ・グロースリサーチ研究員は「SKハイニックスの代表技術であるVFO(チップと回路をつなぐワイヤーを曲線から垂直に変えた半導体パッケージング技術)は、従来のTSV(穴を開け複数の半導体チップを垂直に積み重ねて接続する技術)で貫通する方式ではなく、チップ外郭に沿って垂直に接続する新たなパッケージング構造だ」と述べ、「3D(次元)NANDの複雑な構造の上にさらにTSVを加えた際に発生する歩留まり低下の問題を回避できる技術だ」と分析した。
SKハイニックスはサンディスクとのHBF協業体制で、このパッケージング能力を担う。サンディスクはフラッシュ設計と大容量NAND基盤技術を提供する形で協力している。ハン研究員は「エヌビディアなど主要GPU企業がHBF標準を採用する場合、HBM・HBFの両軸メモリーの中核企業として台頭する可能性が高い」と述べた。
半導体業界関係者は「これまでAI市場で脇役だったNANDが、推論AIの実装に不可欠な要因として浮上し、本格的なカスタム開発が進んでいる」と述べ、「HBMに匹敵する革新的技術が登場すれば、AI推論コストの低下と性能向上が実現し得る」と語った。