Rebellionsのロゴ(左)とRed Hatのロゴ。/Rebellions

人工知能(AI)半導体スタートアップのRebellionsがグローバルなオープンソースソリューション企業であるレッドハットとともに「フルスタック・エンタープライズAIプラットフォーム」を公開すると11日に明らかにした。

新たに公開された「レッドハット・オープンシフトAI」はRebellionsのニューラル・プロセッシング・ユニット(NPU)を基盤として動作する。レッドハット・オープンシフトは、企業がAIモデルのライフサイクルをスケールに応じて管理できるよう支援するKubernetes基盤のエンタープライズプラットフォームである。RebellionsのNPUと高効率推論エンジンであるvLLMを結合して、検証済みのフルスタック・エンタープライズAIプラットフォームを提供する。vLLMは大規模言語モデル(LLM)を高速かつ効率的に実行するのを助けるソフトウェアである。

「Rebellions NPU基盤レッドハット・オープンシフトAI」はAI推論の最適化に向けて核心要素を統合し、ハードウェア(NPU)はもちろん、モデルサービング(vLLM)まで推論に必要なあらゆる領域を網羅する。

会社側は「AI導入が拡大し、企業はインフラ費用、デプロイの複雑性、セキュリティなど多様な課題を同時に解決しなければならない」とし、「今回のソリューションはこうした現実的な要請を反映し、さまざまな環境で安定的かつ効率的な推論インフラを構築できる代案となる見通しだ」と述べた。

特に学習を終えたモデルが実環境で応答を生成する段階である「AI推論」は、使用頻度が高まるほど費用が増加する。性能にも影響を及ぼす要因である。これにより既存のグラフィックス処理装置(GPU)中心ではすべての需要に対応するのが難しくなっている。Rebellionsはレッドハットと協力して作った今回のプラットフォームが効率性に優れ、企業のAI導入の悩みを和らげることができると期待している。

RebellionsのNPUはAI推論に最適化されたアーキテクチャとして設計され、既存GPU比で最大3.2倍高いエネルギー効率を提供する。フルスタックソフトウェアと主要オープンソースAIフレームワークの支援を通じて、GPUと同水準の利便性の高い開発環境を提供すると会社側は説明している。

両社はKOLONベニットと共同でセミナーを開きソリューションを紹介し、企業の生成AI導入過程で直面する主要課題を議論する予定だ。以後、参加企業を対象としたコンサルティングと実証を通じて効率的なAIインフラ構築を支援し、市場拡大を本格化する計画である。

パク・ソンヒョンRebellions代表は「AIサービングと推論が本格化するなか、企業には性能とコスト、データ主権をすべて満たす実用的なインフラが必要だ」とし、「今回の協力によりレッドハットとRebellionsは、AI推論の要素がばらばらだった従来方式ではなく、ハードウェアからモデルサービングまでオープンソースを用いて統合し検証された推論プラットフォームを提供する」と明らかにした。続けて「GPU中心の環境を越え、NPU基盤推論インフラの新たな代案を提示する最初の事例となるだろう」と語った。

ブライアン・スティーブンス、レッドハットAI部門上級副社長(CTO)は「エンタープライズAIの未来は、単一構造の独占的スタックを超えるアーキテクチャを選択できなければならない」とし、「Rebellionsとの協業はレッドハットの『あらゆるモデル、あらゆるアクセラレーター、あらゆるクラウド』戦略を具現するうえで大きな意味がある」と述べた。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。