昨年の春節、いわゆる「DeepSeek(ディープシーク)ショック」を引き起こした中国の国家級人工知能(AI)企業であるDeepSeek(ディープシーク)が、次世代大規模言語モデル(LLM)「V4」の公開を準備中だと伝えられている。来週の春節(春节、中国の旧正月)連休の前後に公開される可能性が取り沙汰されるなか、次世代LLMは性能競争よりも学習と推論コストの低減に焦点を当てることで中国のAI産業のイノベーションサイクルを加速させると見込まれる。
12日、中国の経済メディアである華爾街見聞は、野村証券の「グローバルAIトレンドトラッカー」報告書を引用してこう伝えた。報道によると、V4は今月17日前後に公開される見通しである。昨年と同様に春節のプロモーション効果を狙うためだ。ただし、今年公開されるV4は、昨年のようにグローバルAI市場に衝撃を与えるモデルというより、学習・推論コスト削減に焦点を当てた構造的改良モデルに近いとみられる。
DeepSeek(ディープシーク)の直近モデルであるV3.2の100万トークン当たりの価格は、入力が0.28ドル(約400ウォン)、出力が0.42ドル(約600ウォン)である。GPT-5.2(入力1.75ドル・出力14ドル)、Gemini 3 Pro(入力2ドル、出力12ドル)と比べると最大で数十倍割安だ。
性能面でも競争力を備えると観測される。華爾街見聞は「内部テストの結果、V4のプログラミング能力はAnthropicのClaude、OpenAIのChatGPTなどを上回ると伝えられた」とした。先立つ2025年12月のV3.2公開当時にも、一部機能がChatGPT-5とグーグルのGemini 3 Proを上回ったと評価された経緯がある。
報告書は、米国の半導体輸出規制により中国が最先端AIチップの確保に苦慮している点を指摘し、V4はハードウエアの拡充ではなくアルゴリズムとエンジニアリングの最適化を通じてハードウエアの限界を補完したモデルだと評価した。DeepSeek(ディープシーク)は「mHC」と「エングラム(Engram)」という技術を開発してV4に適用したが、平たく言えばmHCは高性能チップがなくても安定して訓練できるようにする技術で、エングラムはメモリ消費を抑える構造を実現する技術である。DeepSeek(ディープシーク)はこの二つの技術を融合し、「より良いチップの確保」ではなく「現有チップをより効率的に活用」する戦略を立てた。
このような構造革新の最大の効果は学習・推論コストの削減である。これまでLLMおよびAIアプリケーション開発各社は学習と推論に莫大な資本を投じてきたが、このコストが低下すれば需要が刺激され、AIモデルを活用する企業が増え、サービスの商用化速度が速まり、収益性の改善にも寄与すると見込まれる。これは中国のAI産業が技術デモ中心の段階から本格的な売上創出段階へ移行する契機になり得るという意味である。
市場環境も変化している。DeepSeek(ディープシーク)V3とR1が一時はオープンソース生態系で高いシェアを記録したのとは異なり、現在は競合モデルが急速に増加し、市場が多極化する様相だ。野村証券は「単一モデルの高効率性だけで市場を掌握するのは難しい環境だ」とし、「今後の競争力の核はモデルそのものではなく、これを活用して差別化されたサービスを創出する能力になる」と述べた。