サムスンSDSは国内で初めて、自社クラウド「サムスン・クラウド・プラットフォーム(SCP)」を通じ、エヌビディアの最新グラフィックス処理装置(GPU)である「B300(ブラックウェル・ウルトラ)」を基盤とするGPUaaS(GPU購読型サービス)を発売したと23日明らかにした。

今回のサービス投入は、企業が人工知能(AI)モデル開発を越えて実際のサービスに適用する「AI推論」段階に入る中で急増する高性能コンピューティング需要に対応する戦略である。

B300 GPUは12段HBM3E(高帯域幅メモリー)を搭載し、GPU当たり288GB(ギガバイト)のメモリー容量と毎秒8TB(テラバイト)の帯域幅を提供する。これに基づき、複雑な演算が必要なAI推論領域でH100比で容量は3.6倍、帯域幅は2.4倍となりメモリー性能が向上した。

これにより大規模言語モデル(LLM)実行時に、GPUの高速な演算処理速度に比して遅いメモリーのデータ転送速度が原因で全般的な性能が低下するデータボトルネック現象が画期的に改善されたと、同社は説明した。

サムスンSDSは2021年にA100、2023年にH100基盤のGPUaaSを先行して打ち出し、クラウド基盤のインフラ構築、運用、顧客サービスなどでGPUがAI専用インフラとして活用されるようGPUaaSエコシステムの構築を主導してきた。

同社関係者は「『SCP B300 GPUaaS』を導入する顧客は大容量メモリーにより巨大AIモデルを効率的に処理でき、AIエージェント、画像・映像・コードの生成および分析など高性能を要するAIサービスのレイテンシーを最小化できる」と説明した。

また、必要な分だけ使って支払う購読型モデルを利用すれば初期投資リスクを低減し費用を効率化できる。GPUの需給が厳しい状況でもSCPを通じてエヌビディアの最新アーキテクチャを即時に業務へ導入でき、サムスンSDSのセキュリティー能力が結合した安全なクラウド環境で機密性の高い企業データを処理できると、同社は強調した。

サムスンSDSはAIモデルを適用する際、別途のインフラ使用料なしに使用したトークン量のみ費用を支払う「サーバレス(Serverless)推論サービス」と、開発者がコードとデータを入力すれば自動で即時にAIを分散学習させる「AI学習サービス」などを今年第3四半期に発売する計画である。

イ・ホジュン サムスンSDSクラウドサービス事業部長(副社長)は「SCPが保有する資源最適化・エネルギー節減などGPU効率化の能力を土台に、大企業、中堅・中小、公共などAIを業務に適用しようとする顧客に国内初のB300 GPUサービスを提供し、AX(AI転換)を積極的に支援する」と述べた。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。