DeepSeek(ディープシーク)のロゴ。/朝鮮DB

中国の人工知能(AI)スタートアップであるDeepSeek(ディープシーク)が、一度に最大100万トークンを処理できる新モデルを公開した。

DeepSeek(ディープシーク)は24日(現地時間)、ソーシャルメディア(SNS)を通じて「完全に新しいシリーズのモデル『ディープシーク-V4』のプレビューバージョンを正式に発表する」として、V4フラッシュとV4プロを公開した。

V4は既存の大規模言語モデルに比べて大幅に拡張されたコンテキストを基盤とし、最大100万トークンの長文ドキュメントやコードベースを一度に処理できる。100万トークンは英語基準で約70万〜80万語で、長編小説7〜10冊分に相当する。

性能重視モデルのV4プロはクローズドソース(closed-source)モデル水準の性能を目標とした。DeepSeek(ディープシーク)は、V4プロがエージェント実行能力でオープンソースモデルの中で最高水準であり、全般的な知識と推論能力もグローバル上位のクローズドモデルと同程度だと説明した。ただし知識性能はグーグルの「Geminiプロ3.1」よりやや低いという。

軽量化モデルのV4フラッシュは価格競争力に焦点を合わせた。全般的な知識水準はV4プロより低いが、推論能力は近い水準だというのがDeepSeek(ディープシーク)の説明である。

性能重視のV4プロは100万トークン基準で入力1.74ドル(約2600ウォン)、出力3.48ドル(約5100ウォン)の水準で設定した。V4フラッシュは入力0.14ドル(約200ウォン)、出力0.28ドル(約400ウォン)とさらに低い。これは主要な競合モデルに比べて大きく低い水準である。

業界によると、OpenAIのGPT系やグーグルのGemini、AnthropicのClaudeなどはモデルによって差はあるが、通常100万トークン基準で入力約10〜30ドル(約1万5000〜4万5000ウォン)、出力30〜60ドル(約4万5000〜8万9000ウォン)水準のコスト構造を示すと伝えられている。つまり、DeepSeek(ディープシーク)V4フラッシュは競合モデルに比べ、少なくとも10分の1から最大50分の1水準までコストを下げたことになる。

業界では、DeepSeek(ディープシーク)が性能差を一定水準まで縮めた状況で価格競争力を前面に出し、市場シェア拡大を狙っているとの分析が出ている。今後、ファーウェイのAscend 950チップを基盤とするインフラが構築されれば、価格がさらに下落する可能性もある。

ただしブルームバーグ通信は、DeepSeek(ディープシーク)がOpenAI・Anthropicなど他のAIモデルの回答をデータとして活用して新モデルを訓練する「蒸留」を行った可能性があり、中国向け輸出が禁じられているエヌビディアの先端チップを使用したとの推測も出ていると伝えた。

DeepSeek(ディープシーク)は昨年1月、低コスト高性能モデルR1を投入し、AI産業の構図を変えた。当時、DeepSeek(ディープシーク)のヒットによってAIバブルがはじける可能性への懸念とともに、米国のテクノロジー株が大幅に下落した経緯がある。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。