SKテレコムのロゴ。/SKT

SKテレコムは、精鋭チームがパラメーター519B(5190億個)規模の超巨大AIモデル「A.X K1(エイドットエックス ケイワン)」の技術報告書をオープンソースプラットフォームのHugging Faceで公開したと7日に明らかにした。約4カ月の開発期間と限られたGPU資源の中で、韓国で初めて500B超のモデルを完成させたと説明した。

精鋭チームは約1000基のGPUで可能な総学習量を試算した上で、スケーリング理論に基づき目標モデルサイズを519Bに設計した。投入資源比で効率を高めるため、最適学習演算量を数理的に設計して運用し、学習には約10兆(10T)個のデータを投入した。

データはウェブとコード、STEM、推論などで構成し、韓国語特化のPDF文書をパースして合成データを作成し、難易度別カリキュラム学習も適用した。今回の開発は政府支援なしで自社によるGPU調達のみで進めたとSKTは強調した。SKTは他の精鋭チームに比べ少なくとも2倍以上のモデル規模であるにもかかわらず性能を確保したと述べた。

性能は海外の超巨大オープンソースモデルと比べ、規模比で同等かそれ以上だと会社は説明した。数学ベンチマークAIME25で89.8点を記録し、685Bモデルの「DeepSeek(ディープシーク)-V3.1」(88.4点)を上回った。リアルタイムコーディング評価のLiveCodeBenchでは英語75.8点、韓国語73.1点となり、DeepSeek(ディープシーク)-V3.1の英語69.5点、韓国語66.2点に比べそれぞれ109%、110%水準だった。比較対象として357Bモデル「GLM-4.6」も含まれた。

A.X K1は専門家混合(MoE)構造を採用し、519Bのうち33Bのみを選択的に活性化する方式で学習の安定性と効率を確保した。128Kトークンの長い文脈も処理でき、韓国語基準で約10万語分量を一度に扱えるとSKテレコムは説明した。SKテレコムは年内にマルチモーダル機能を追加し、兆単位パラメーターへ拡大する計画である。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。