レッドハットはアマゾンウェブサービス(AWS)クラウド上で「レッドハットAI」と「AWS AI」シリコンを組み合わせ、企業向け生成AIの支援を拡大すると3日に明らかにした。
レッドハットとAWSの協業は、レッドハットのプラットフォーム能力、AWSのクラウドインフラ、AIチップセットを組み合わせ、生成AI戦略の実装を支援する。レッドハットAIインファレンスサーバーはvLLMを基盤にAWS Inferentia2とTrainium3上で実行し、世代を問わず多様な生成AIモデルに共通の推論レイヤーを提供する。これにより、顧客は既存のGPU(グラフィックス処理装置)ベースのAmazon EC2より最大30〜40%向上した価格対性能を確保できると会社側は説明した。
両社はAWS Red Hat OpenShift Service、Red Hat OpenShift、Red Hat OpenShift AIに適用されるAWS Neuron Operatorも開発中である。AWS Neuron Community Operatorは現在、Red Hat OpenShiftおよびAWS Red Hat OpenShift Serviceのユーザーに提供されている。AWS AIチップをサポートするレッドハットAIインファレンスサーバーは2026年1月に開発者プレビューとして提供される予定である。
ジョ・フェルナンデス レッドハットAI事業部副社長は「レッドハットAIインファレンスサーバーをAWSのAIチップとともに実装し、組織が効率性と柔軟性を基盤にAIワークロードを拡張できるよう支援している」と述べた。
コリン・ブレイス AWSアンナプルナ・ラボ副社長は「TrainiumとInferentiaは高性能なAI推論と学習を費用効率的に実装できるよう設計された」とし、「今回の協業により、顧客が生成AIをプロダクションまで迅速に拡張できる基盤が整った」と語った。