人工知能(AI)競争が激化するなか、Anthropic、DeepSeek(ディープシーク)など生成AIの後発勢を中心に、AIモデルの規模を闇雲に拡大する代わりにアルゴリズム効率を高める戦略で差別化を図る企業が増えている。これはAI産業を支配しているAIモデルの大型化の流れと反対の動きである。
オープンAI、グーグル、Meta(メタ)など主要AI企業は巨額の資金をAIモデル学習、大規模データセンター構築、次世代半導体の確保などに投入した。だが、この無差別な規模拡大が過度な借入とAIバブル懸念を強め、長期的に持続可能ではないとの指摘が出ると、一部企業が低コスト・高効率戦略へ転換する様子が見られる。これらは少ない資源と低いコストで高性能AIを実装する、いわゆる「コストパフォーマンス(価格対性能)」を競争力として掲げ成長を図る計画だ。
5日、業界によると「オープンAIの対抗馬」と呼ばれる米AI企業Anthropicの共同創業者であるダニエラ・アモデイ最高経営責任者(CEO)は最近のCNBCのインタビューで、資本支出を抑制しコンピューティング(演算)資源対比で高いAI性能を実現する方式でAI競争に挑むと明らかにした。アモデイCEOは「少ない資源でより大きな成果を出そう(Do more with less)がAnthropicの中核戦略だ」とし、「Anthropicが保有するコンピューティング資源と資本は競合の一部の水準に過ぎないが、近年、最も強力で性能に優れたAIモデルを継続的に披露してきた」と語った。
Anthropicは今後、AIモデルの競争力は膨大な事前学習(pre-training)の規模ではなく、高品質な学習データに基づき推論能力を引き上げる事後学習(post-training)技術が左右すると展望した。これにより投入したコンピューティング資源対比でAI性能を高める考えだ。特に企業顧客がAIモデルをより安価に運用し、実務に大規模に容易に適用できるよう設計することが重要だとアモデイCEOは強調した。
これはAnthropicの企業中心戦略とも軌を一にする。実際、Anthropicは収益性のある企業向けAI販売で昨年、ChatGPTの開発元オープンAIを抑え1位を記録した。米ベンチャーキャピタルのメンロベンチャーズが先月公表した「年次 企業内生成AI現況報告書」によると、Anthropicの昨年の企業向け大規模言語モデル(LLM)市場シェアは40%で、前年(24%)から大幅に増加した。消費者向けAI市場で圧倒的1位のオープンAIの企業向けAI市場シェアは27%にとどまり、グーグルが21%で続いた。
AIコーディング市場でもAnthropicは54%のシェアでオープンAI(21%)とグーグル(11%)を上回った。コーディング特化のAIツール「クロードコード」が開発者を中心に支持を得て広く使われた影響だ。企業向けAI市場を集中的に攻略した結果、Anthropicの売上は直近3年間、前年対比で連続して10倍ずつ成長した。
アモデイCEOが「投入したコンピューティング資源対比の性能改善」を強調したのは、早ければ今年と見込まれるAnthropicの新規株式公開(IPO)を意識した発言だとの分析も出ている。Anthropicは昨年11月、マイクロソフトとエヌビディアからの投資を受け、3500億ドル(約505兆ウォン)の企業価値を認められ、最近上場準備に入った。強力な競合であるオープンAIと同時期に上場を進める状況で、両社の財務状態と技術、戦略が試されることになる。投資家が今後の長期収益性と効率性を求める状況に備え、Anthropicが1兆4000億ドル(約2000兆ウォン)に迫るAIインフラ投資計画を発表したオープンAIとは異なり「低コスト高効率」を中核戦略として掲げたとみられる。
昨年初めに低コスト高性能AIで世界に衝撃を与えた中国のDeepSeek(ディープシーク)も、より効率的にAIモデルを開発できる方法を最近の論文で発表した。リャン・ウェンフォン創業者が共著者として参加した論文で、DeepSeekは「マニフォールド制約超接続」の概念を紹介した。AIモデル学習に投入する演算資源とエネルギー消費を大幅に減らしつつ大規模拡張が可能な新しいAI学習法であり、モデル資源を6.7%だけ増やして性能を大きく高められるという内容が骨子だ。
業界では、DeepSeekが今回の論文で次世代モデル「R2」の投入を予告したと解釈している。DeepSeekはこれまで主要モデルを公開する前に関連論文を先に発表してきたためだ。DeepSeekをはじめとする中国AI企業がエヌビディアの高性能グラフィックス処理装置(GPU)にアクセスできない状況で米国と競うため、コストを最大限抑えAIモデルの効率を高める方式で対応しているとみられる。
韓国内でも、先月末に公開された「国家代表AI」選抜発表会で企業が経済性と効率を強調した。LG AI研究院コンソーシアムは、自社開発の独自AIファウンデーションモデル「K-エクサワン(EXAONE)」が、状況に応じ一部のパラメータだけを選択して用いる専門家混合構造(MOE)を使用してコストを削減し、「ハイブリッドアテンション技術を適用し既存のエクサワン4.0比で推論効率を高めつつ、メモリ要求量と演算量を70%削減した」と説明した。NC AIコンソーシアムは、AIモデル「VAETKI(ベキ)」もMOEを採用し既存モデル比でメモリ使用量を最大83%削減し演算速度を高め、GPUインフラが不足する産業現場でも活用可能だとした。