金融監督院は金融分野の人工知能(AI)リスク管理フレームワークを策定したと15日明らかにした。今回のフレームワークは法的拘束力のない自主的なガイドラインである。

フレームワーク上、金融会社はAIリスク管理のための意思決定機構と専任組織を構成しなければならない。これにより明確な責任所在を前提に、抑制と均衡が機能する管理体制を確立する必要がある。

ソウル汝矣島の金融監督院の様子。/News1

AI関連の意思決定機構は、AI倫理原則と内部規程の制定・改定、リスク管理および消費者保護政策の策定、高リスクAIサービスの承認など主要事項を審議・議決する役割を担う。意思決定機構はCEOに定期的に関連事項を報告しなければならない。責任構造図を導入した金融会社の場合、AI関連の内部統制とリスク管理の責任を明確に反映する方策も併せて検討するとした。

金融会社は独立したリスク管理の専任組織を設置し、AI関連業務全般を統制・管理しなければならない。同時にAIリスク管理規程と指針などの内部規程を整備し、それを具体化した業務マニュアルを用意する必要がある。

金融会社はAIリスク評価体制も別途整える必要がある。金融会社は、適法性、信頼性、消費者保護、セキュリティー性など金融AI7大原則のうち定量的要素を中心に、リスクベースのアプローチによる総合評価体制を構築しなければならない。金融会社はリスク評価結果に応じて、AIサービスのリスク水準別に差別化した統制・管理も実施しなければならない。

金融監督院は業態別の協会を通じて金融分野AIリスク管理フレームワークを配布し、説明会と懇談会を通じて金融業界の意見を取りまとめる計画である。その後、今年1四半期中に最終案を確定して施行する方針だ。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。