人工知能(AI)データ・信頼性評価の専門企業SELECTSTARは、自社開発のAI安全性検証技術により世界で最も権威ある学会で技術力を認められたと19日明らかにした。
SELECTSTAR AIセイフチームの研究論文「文化適応型レッドチーミング・ベンチマーク生成フレームワーク(CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation)」が、4月にブラジルで開催される「ICLR 2026」のメインカンファレンスに採択された。
ICLRはAI分野で最も影響力のある国際学会の一つである。グーグルスカラー基準でAIおよび機械学習分野の最上位学会に挙げられる。今年は1万9000余件の論文のうち上位約28%のみが採択された。とりわけSELECTSTARの論文は最も重要視されるメイントラックに選定され、独創性と技術的完成度が世界的に認められたと同社は説明した。今回の研究は企画から実装、検証、論文掲載まで外部の教授陣や研究機関の支援なしにSELECTSTARの内部人員のみで成し遂げた成果である。
今回の論文の核心技術は、各国の文化と法的文脈を反映してAIの安全性を検証するレッドチーム(Red Team)データを自動生成するフレームワークである。AIが危険な質問を受けた際に安全に対応するかを点検する試験問題を、言語・文化圏別に自動生成する技術だ。
従来のAI安全性検証は主に英米圏で開発されたデータセットを単純に直訳・意訳して用いる方式だった。この場合、各国で実際に起こり得る危険状況を十分に反映できず、AIの弱点を見落とす可能性がある。SELECTSTAR研究チームはこれを解決するため「セマンティックモールド(Semantic Mold)」という概念を提案し、各国の文化的特性を反映したローカライズ攻撃質問を生成した。その結果、CAGEで生成した攻撃シナリオは人手で作成したものに近い自然さを示し、AIモデルの防御率を突破して潜在的なリスクを見つけ出す「攻撃成功率」の面でも卓越した成果を示した。実際にCAGEはカンボジア語(クメール語)などデータが不足する言語圏でも優れた性能を示した。
論文にはCAGEを韓国の状況に適用して作成した韓国型安全性ベンチマーク「KoRSET(コルセット)」も併せて公開した。コルセットは従来の単純翻訳で作られたデータセットよりもAIモデルの脆弱性をはるかに効果的に見つけ出し、韓国文化に基づく安全性検証に最適化された性能を立証した。
論文の責任著者であるキム・ミヌSELECTSTAR AIセイフティチーム長は「今回のICLR採択は、SELECTSTARが単なるデータ構築企業を越え、独歩的な源泉技術を保有するAI技術企業であることを証明した事例だ」と述べ、「CAGE技術はすでに大企業のAIプロジェクトに適用され、モデルの脆弱点点検と運用効率の改善に活用されている」と語った。共同著者のイム・ヨンテク研究員は「AIの性能競争を越え、いまや『安全性』が核心競争力の時代だ」とし、「現場で即時に活用可能な品質の安全評価技術でグローバル基準の確立に寄与する」と抱負を明らかにした。
一方、SELECTSTARは今回の研究成果を踏まえ、金融、公共など高度な安全性が求められる多様な産業群へ信頼性評価ソリューションを拡張する計画だ。論文は3月にオープンソースプラットフォームのアーカイブ(Arxiv)を通じて公開される予定である。