聯合ニュース

生成型人工知能(AI)を事実上「無制限」で使えた時代が終わりつつある。月20ドル(約2万9000ウォン)前後の定額料金で無制限に近く利用できた従来の構造が限界に突き当たり、料金引き上げと使用制限、広告導入まで同時に進む流れである。

14日、関連業界によると、オープンAI、Anthropic、グーグル、xAIなど主要AI企業は最近、料金体系を速いペースで再編している。従来はChatGPT、クロード、Geminiなど主要サービスが月20ドル水準の定額制を中心に運営されていたが、最近では200ドル以上の高額料金プランを導入したり、高性能機能を別途制限する方式へと変わっている。

こうした変化の核心的背景は収益性の崩壊だ。生成型AIは質問に回答を生成するたびに莫大なコンピューティング資源を使用し、とりわけ最近登場した「推論型AI」は従来よりはるかに多くの演算を必要とするため、費用が急激に増加している。

オープンAI内部の財務見通しによると、同社は今年約140億ドル(約21兆ウォン)規模の損失が見込まれる。ChatGPTの利用者は約9億人に達するが、有料利用者の比率は5%未満だ。大半の利用者が無料サービスにとどまり、費用だけが発生する構造である。

サム・アルトマン・オープンAI最高経営責任者(CEO)はこの構造的問題に直接言及した。アルトマンCEOは「月200ドルの料金プランでも一部のヘビーユーザーは依然として損失を生む」と明らかにしたことがある。高性能の推論モデルを集中的に使う利用者の場合、定額料金ではコストを賄いきれないという意味だ。

このような現象は業界全般で共通して表れている。Anthropicは4月時点で年間経常収益(ARR)が300億ドル水準まで成長したとされるが、依然として大規模な学習および演算コストの負担を抱えている。Anthropicの内部推定によれば、AIモデルの学習費用は年間120億ドル、推論費用は70億ドル水準に達する。

AI産業全体のコストも急速に増加している。主要ビッグテック企業の投資計画を総合すると、2026年のグローバルAIインフラ投資規模は5000億ドルを超えたと推定される。マイクロソフト(MS)、グーグル、アマゾン、Meta(メタ)などはデータセンターと半導体の確保に年間数百億ドルを投じている。

問題は、技術の進展で個別の演算コストは下がったが、全体コストはむしろ増加している点である。市場調査会社ガートナーは最近の報告書で「AI推論コストは2030年までに90%以上下落する」と展望した一方で、同時に使用量が爆発的に増え、総コストはかえって増加する構造が表れていると分析した。

この現象は経済学で言う「ジェヴォンズの逆説」で説明される。効率が高まるほど使用量が増え、結果的に総消費が増加する現象である。実際にAIトークンの単価は数年の間に急激に下落したが、利用量の増加速度がこれを上回っている。

このため企業は「無制限定額制」モデルの維持が難しいと見ている。代わりに料金プランを細分化し、高性能機能には追加料金を課すか、一定の使用量を超えると制限を設ける方式へと転換している。

無料利用者向けの方針も変化している。オープンAIは年初に「ChatGPT Go」(月8ドル)料金プランを発売し、無料および低価格プランの利用者を対象に広告導入をテストしている。同社は広告を「最後の手段」としつつ、収益構造の多様化を模索している状況だ。

企業顧客中心の戦略も強化される流れだ。Anthropicは売上全体の70〜80%を企業顧客で確保しており、グーグルとマイクロソフトもAIをクラウドや業務用ソフトウエアに組み合わせ、企業向け(B2B)市場の攻略に注力している。

業界では、これまでは投資資金とビッグテックの支援のおかげで安価で無制限に近いAIサービスが可能だったが、いまは費用を回収すべき段階に入ったと見ている。今後は電力やクラウドのように使用量ベースの課金構造へ再編される可能性が高いと分析する。

チェ・ビョンホ・コリョ大学ヒューマンインスパイアードAI研究院の研究教授は「現在の生成型AI市場は、収益が出る先がB2Bサービスへ移行している流れだ」と述べ、「無制限に近い消費者向け料金プランは維持が難しい構造だ」と語った。続けて「無料サービスは利用者確保の戦略的性格が強く、今後はプレミアム料金プランの拡大や制限強化などの形で運用される可能性が高い」と付け加えた。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。