フェイスブックとインスタグラムの親会社であるMeta(メタ)が自社設計の人工知能(AI)半導体を公開し、AIインフラ分野での影響力拡大に乗り出した。これまでMeta(メタ)のAIモデル「ラマ」はグーグル、オープンAI、AnthropicなどのAIモデルと比べて成果が振るわないとの評価を受けてきたが、同社は自社AIチップと大規模データセンター建設、スマートグラスを含むAIハードウエア機器を中心にAIエコシステム全般で掌握力を高める戦略で差別化を図っている。
このように米ビッグテック間のAI覇権競争の中心がAIモデルを越えてインフラ全般へ移りつつあるとの分析が出ている。強力なAIモデルも重要だが、大量のAIチップと電力を迅速かつ安定的に確保してデータセンターを運用し、これを産業現場に適用する能力がAI産業における勝敗を左右する核心競争力として浮上した。AI企業は自社AIチップを開発してエヌビディアへの依存度を下げ、逆にAIチップの強者であるエヌビディアはAIモデルとプラットフォームを投入するなど、各社がAI産業の主導権確保に総力を挙げている。
13日テック業界によると、Meta(メタ)は自社製作AIチップ「メタ訓練・推論加速器(MTIA)」の製品群であるMTIA 300・400・450・500の4種類を11日(現地時間)に披露した。このうちMTIA 300はすでに生産に入っており、残る3種類は今後約6カ月間隔で生産し、来年までにデータセンターへ配備する計画だ。イ・ジウン・ソンMeta(メタ)エンジニアリング担当副社長は「Meta(メタ)が自社設計したチップを台湾TSMCが生産する構造だ」と説明した。
Meta(メタ)が発表したAIチップ開発の中長期戦略「MTIAロードマップ」で目を引く点は、新規チップのリリース周期が6カ月と短いことだ。一般的に半導体企業は1〜2年周期で新しいAIチップを投入する。Meta(メタ)は「(AIチップ開発より速い)AI技術の進化速度に迅速に対応し、最先端AIチップの開発・展開コストを削減するため」にAIチップの開発周期を6カ月に短縮したと説明した。MTIA製品群はモジュール式構造で再利用が可能となるよう設計した。
また自社チップに加え、エヌビディアやAMDのグラフィックス処理装置(GPU)など外部チップも用途に応じて並行活用する「ポートフォリオアプローチ」を採用したと説明した。Meta(メタ)は先月、AMDと1000億ドル(約143兆ウォン)、エヌビディアとも大規模なAI半導体供給契約を結んだ。当時「Meta(メタ)がAI半導体の自社開発に難航している」との報道が出たが、これに対しMeta(メタ)は「すべての要求を1つのチップで解決することはできず、各目的に最適化された複数種類のチップが必要だ」として懸念を一蹴した。
代表例として、Meta(メタ)がすでにデータセンターに数十万個を配備し運用中のMTIA 300は、フェイスブックやインスタグラムなどのコンテンツと広告関連の推論(inference)作業に最適化されている。Meta(メタ)は「(GPUを含む)汎用チップはAIモデルの訓練には適しているが、推論作業に使うにはコスト効率性が劣る」とし、「MTIAはMeta(メタ)のAIワークロードに合わせて設計したため、R&R(ランキングとレコメンド)と推論に最適化されている」と述べた。
業界では長期的にAI市場で学習より推論の需要がより速く成長すると見ている。AIモデルが十分に高度化した後には、リアルタイム推論の費用が指数関数的に増加するためだ。Meta(メタ)が今後披露するMTIA 450と500もAI推論能力を強化したチップで、推論性能の要である高帯域幅メモリー(HBM)の帯域幅と容量を大きく増やしたことが特徴だ。
先にマーク・ザッカーバーグMeta(メタ)最高経営責任者(CEO)は、すべての人に高性能AIアシスタントを提供する「個人用超知能(personal superintelligence)」の実現を目標に掲げ、今年AIインフラに1350億ドル(約195兆ウォン)を投資すると明らかにした。Meta(メタ)は自社チップ開発と外部チップ導入によって高効率の推論コンピューティングを構築することが、個人用超知能の実現に向けた必須の段階だと見ている。その一環としてMeta(メタ)は米国ルイジアナ州に270億ドルを投じて2ギガワット(GW)級データセンター、インディアナ州に100億ドル規模の1GW級データセンターを建設中である。
Meta(メタ)以外にもグーグル、アマゾンなどのビッグテック企業がすでに自社AIチップの開発に乗り出した。グーグルは2015年に披露したAIチップ「テンソル処理装置(TPU)」を最近Anthropic、Meta(メタ)などに供給する大規模契約を締結した。アマゾンも自社開発した「トレーニアムチップ」シリーズを保有している。これらは自社開発チップを自社データセンターに適用するにとどまらず、「エヌビディアGPU」の代替としてチップを訴求し、外部顧客の獲得にも拍車をかけている。グーグルはTPU販売を拡大するためにプライベート・エクイティ(PE)と特別目的会社(SPV)を設立する案も進めている。
AI企業が脱エヌビディアの動きを続けてAIインフラ分野で影響力を拡大する一方、AIチップの代表格であるエヌビディアはAIモデルを披露した。エヌビディアは12日、AIエージェントの稼働に特化したオープンなAIモデル「ネモトロン3スーパー」を公開した。複雑な作業を自律的に遂行するAIエージェントは、単に質問に答えるチャットボットよりデータ処理量が多く、演算資源と費用負担が大きい。「ネモトロン3スーパー」は必要に応じてパラメーター1200億個のうち最小120億個のみを活用できるよう設計し、コストを下げつつ効率を高めた。
業界ではエヌビディアが自社GPUプラットフォームの市場支配力を盤石にするためにAIモデルを投入したと見ている。エヌビディアのAIチップに最適化した高性能AIモデルを提供すれば、利用者が他のチップを使いにくくなる「ロックイン(lock-in)効果」を期待できるためだ。エヌビディアは「ネモトロン3スーパー」を最新AIチップ「ブラックウェル」で稼働させると、前世代「ホッパー」を使った場合より推論速度が最大4倍速くなると説明した。
エヌビディアはこの日、オランダに本社を置くネオクラウド企業ネビウスと戦略的パートナーシップを締結し、20億ドル(約2兆9600億ウォン)を投資すると発表した。チップ開発を越え、AIモデルとインフラまで影響力を広げながらAI産業の主導権を確保しようとする動きといえる。