人工知能(AI)産業の規制と振興を目的とした「AI基本法」が22日から全面施行された。韓国内のAI事業者はこの日からChatGPT・Geminiなど生成AIを活用して作ったコンテンツに「AI使用」の事実を知らせるウォーターマークを表記しなければならない。政府は現場の混乱を最小化するため1年間規制を猶予することにしたが、企業は世界で初めて導入されたAI基本法が韓国のAI産業の発展を阻害するのではないかと懸念している。企業はAI基本法の影響を把握し、万一の副作用を防ぐため対応策の策定に苦心する様子だ。
AI基本法は韓国のAI産業の育成と安全な活用基盤を整えるため2024年1月21日に制定された法律である。AI産業に対する支援と制裁の方策を包括的に盛り込んだAI法制定は欧州連合(EU)に次いで2番目だが、全面施行に入るのは韓国が初めてである。科学技術情報通信部は「法条項のおよそ80%を産業振興に焦点を合わせた」と強調したが、企業は残り20%に該当する規制に注目している。
AI基本法で用意された規制は危険なAIの活用を予防することに主眼を置いている。AI生成物にウォーターマークを表示する透明性確保義務が代表的だ。現実かどうか判別しにくいディープフェイク生成物には、ウォーターマークを通じてAIを活用したという事実を明確に告知するよう定めた。アニメーションやウェブトゥーンのように識別が容易なコンテンツは、目に見えないデジタルウォーターマークを使用してもよい。映画、ドラマ、美術、文学などの創作物も、作品の没入を妨げない範囲でAI活用の事実を表記できる。
ウォーターマーク表記の適用対象は個人ではなく事業者に限定される。AI生成物をコンテンツ制作に活用したりソーシャルメディア(SNS)に投稿する利用者は規制対象ではないという意味である。AIを活用してウェブトゥーンを描く作家、AIの助けを借りてYouTube「ショート」やインスタグラム「リール」を制作して投稿するインフルエンサーは、事業者ではない利用者に該当するため義務は適用されない。
AI基本法は「高影響AI」も規制対象に指定した。政府は高影響AIを「人の生命と安全、基本権の保護に重大な影響を及ぼすAI」と定義し、エネルギー・医療・採用・原子力・犯罪捜査・交通・教育など10分野を提示した。「完全自動運転段階であるレベル4以上の車両」が代表的な高影響AIの例として挙げられる。最終意思決定過程に人が介入したかどうかも高影響AIの判断基準である。一例として、採用過程でAIが人材を推薦したとしても、人事チームが最終判断を下せば統制可能と判断し高影響AIの対象から除外される。
AI事業者がAI活用事実の事前告知義務などに違反した場合、最大3,000万ウォンの過料が科される。ただし1年以上の啓導期間運用方針に従い、事実調査と過料賦課も猶予される予定である。
韓国内企業はAI基本法施行に素早く対応している。猶予期間はあるが、混乱を最小化するため先制的に備えるほうがよいという理由からだ。
AIで制作されたコンテンツを流通するカカオはサービス約款を改定し2月5日から適用する。新しい約款には「会社が提供するサービスにはAIに基づいて運用されるサービスが含まれる場合があり、AIによって生成された成果物を提供する場合には関連法に従い告知・表示する」という内容の条項を追加した。カカオはAIエージェント「カナナ」やテンプレートのうち「AIテンプレート」で生成したすべての映像に「カナナ」と記された可視的ウォーターマークを挿入している。
韓国内ゲーム会社は1年の猶予期間中に科学技術情報通信部の詳細ガイドラインに従って対応に乗り出す方針だ。Kraftonを含む一部のゲーム会社の場合、EUが段階的に施行中のAI法に対応する次元で既にグローバル市場でサービス中のゲームのAI使用を告知している。会社関係者は「『バトルグラウンド』と『インジョイ』などはゲームプラットフォームのスチームを通じてAI使用の有無を表記している」と述べた。
ただしスタートアップ関係者と一部IT企業は依然としてAI基本法について「矛盾が多く混乱する」という立場だ。高影響AIの基準が曖昧で、企業が自ら高影響AIに該当するか判断しにくいという意見が代表的である。後に法的紛争に巻き込まれた際に高影響AI該当の可否が裁判所の判断に左右され得るため、リスクが大きいということだ。
スタートアップアライアンスが昨年末、韓国内のAIスタートアップ101社を対象に実施したアンケートで、98%が「AI基本法施行に対応体制を整えられていない」と答えた。チェ・ジヨン コリアスタートアップフォーラム常任理事は「スタートアップは規制変化に対応する人員と資源が十分でない場合が多い」とし、「AI基本法が現場で適切に機能するには、合理的な制度、明確な基準と解釈、遵守コストを下げる支援インフラが必要だ」と語った。
AI基本法ではディープフェイク犯罪への対応が限定的だという指摘も出ている。最近、児童ディープフェイク生成で物議を醸したxAIの「グロック」のように、ディープフェイクの生成・流通は主に海外プラットフォームで行われるが、海外AI企業への制裁が難しいのが実情である。政府は国内売上100億ウォン、グローバル売上1兆ウォン、日平均利用者100万人以上のうち一つでも該当する海外事業者には国内代理人の指定を求めたが、この基準を満たす企業はグーグル、オープンAIなどごく少数だ。
専門家は政府が規制猶予期間に業界と積極的に疎通し、合理的なガイドラインを整備すべきだと助言した。チェ・ビョンホ 高麗大学ヒューマン・インスパイアードAI研究院教授は「政府は1年間、産業界の意見をできるだけ多く収れんし、詳細ガイドラインを策定すべきだ」と述べ、「法がAI産業の変化の速度に追いつけないため、啓導期間が終わった後も定期的に政府と利害関係者が集まり、法を改正し施行する作業が必要だ」と語った。