フェイスブックの親会社であるMeta(メタ)が自社開発の人工知能(AI)チップ4種を11日(現地時間)に公開した。エヌビディア、AMD、グーグルなどと大規模なAIチップ供給契約を結んだMeta(メタ)が自社製AIチップを新たに披露し、最近浮上していた開発難航説を打ち消した。
Meta(メタ)は自社開発AIチップ「メタ訓練・推論アクセラレーター(MTIA)」の製品群であるMTIA 300、400、450、500の4種をこの日ブログで公開した。イ・ジウンソンMeta(メタ)エンジニアリング担当副社長はCNBCに「Meta(メタ)が自社設計したチップを台湾TSMCが生産する」と述べ、この方式は外部の半導体企業にのみ依存するよりもデータセンター全体で価格対性能を高められると説明した。
新たに公開したAIチップのうちMTIA 300はすでに生産に入り、一部はデータセンターに配備した。MTIA 300はフェイスブックやインスタグラムなどMeta(メタ)のソーシャルメディア(SNS)プラットフォームでコンテンツや広告を推薦するモデルに最適化したチップである。
今後発売するMTIA 400、450、500はそれぞれ約6カ月のサイクルで来年までにデータセンターへ配備する計画だ。「アイリス」というコード名で知られるMTIA 400は生成AIモデルを支援するチップである。利用者のリクエストに基づき画像や映像を生成する作業などがこれに当たる。
MTIA 450と500はAI推論に特化したチップで、推論性能の要である高帯域幅メモリー(HBM)の帯域幅を大幅に拡大したことが特徴だ。
Meta(メタ)はエヌビディアやAMDのグラフィックス処理装置(GPU)など外部チップを導入することと自社チップを生産することを併行する方針について、「主流チップは最も難易度の高い作業であるAIの訓練に向けて設計されており、推論のような作業には費用対効果が低い」とし、「MTIAは逆に推論に最適化した」と説明した。
ただしソン副社長は「AIモデルが伝統的なチップ開発サイクルよりも速く進化している」と述べ、「単一の設計に長期で賭けるのではなく、反復して改善することにした」と、開発サイクルを6カ月単位に短縮した戦略の背景を説明した。訓練用には外部チップを導入し、推論用には自社チップを生産して効率性を高める戦略である。
一方でソン副社長は世界的なメモリーチップ不足の状況を懸念した。ソン副社長は「HBMの供給(不足)状況を懸念している」としつつも、「すでに計画中の生産量に合わせて(メモリーの)物量は十分に確保したと信じている」と述べた。