イラスト=ChatGPT

OpenAIやAnthropicなどの世界的な生成AI企業が青少年保護措置の強化に乗り出している。各社は利用者が青少年かどうかを判別するツールを導入し、青少年に対して安全な回答を提供するための応答条件を明示した。ソーシャルメディア(SNS)に続きAIチャットボットでも青少年のメンタルヘルスへの懸念が広がり、保護措置の強化が不可避になったとみられる。

OpenAIは18日(現地時間)、18歳未満のユーザーを対象とするAIモデルの行動指針を盛り込んだ「Model Spec(モデル仕様)」を改定し、青少年と保護者向けのAI教育資料を新たに公開した。改定案は4つの新しい原則を導入し、青少年の安全を最優先の価値とし、知的自由など他の目標と衝突する場合は安全な選択肢を提示するよう規定した。さらにChatGPTがオフラインでの人間関係や実際の支援を促し、青少年ユーザーを成人と同一に扱わず、温かさと尊重に基づいて応答するよう明記した。

またOpenAIは、ChatGPTの消費者向け料金プランに年齢予測モデルを順次導入していることも明らかにした。このモデルは会話のテーマや時間帯などを分析し、利用者が18歳未満かどうかを判別する。利用者が未成年と判定されるか年齢が不明確な場合、ChatGPTは直ちに「18歳未満」環境を適用し、暴力的な描写や危険行為を助長するチャレンジ、性的ロールプレイ、身体を歪めるコンテンツなどを遮断する。また、未成年の利用者に安全上の問題が発生したり危険と評価される会話が行われた場合、ChatGPTは緊急サービスや危機支援機関に連絡するよう利用者に強く勧告する。

Anthropicもこれと類似した青少年保護措置を進めている。Anthropicは自社チャットボットのClaudeとの対話過程で、利用者が未成年である可能性を示唆する微妙な会話シグナルを検知するシステムを開発中だ。未成年と確認されたアカウントは非活性化され、会話中に自ら未成年であることを明らかにした利用者は既に別途表示している。またAnthropicは、自殺および自傷に関する質問への応答訓練の方法と、有害な思考をそのまま強化する「おべっか(アチャム)」を減らしていると明らかにした。会社は最新モデルがこれまでで最も低い水準のおべっかを示したと評価した。

最近、SNSに続きAIチャットボットでも青少年のメンタルヘルスへの懸念が広がり、保護措置の強化が不可避になった。生成AIが学習・相談・日常会話の領域にまで急速に浸透し、青少年が有害情報や過度な情緒的依存にさらされる可能性があるとの指摘が相次いでいる。実際、米カリフォルニア州の高校生アダム・レインを含む未成年者がChatGPTと会話した後、妄想やうつなどに苦しみ命を絶つ事態が発生し、遺族はOpenAIが未成年向けの安全装置なしでサービスを提供したとして訴訟を提起した経緯がある。

業界では、こうした措置は自主規制の性格を帯びる一方で、今後は各国政府の規制論議と相まって標準として定着する可能性も指摘されている。実際に一部の国はSNSの禁止措置を打ち出している。オーストラリアは10日から16歳未満の子どものSNS利用を禁じた。これに違反した場合、最大5000万オーストラリアドル(約480億ウォン)の罰金が科される。マレーシアも来年、16歳未満の青少年のSNS使用を禁じる計画で、デンマークとノルウェーは15歳未満の子どもを対象に類似の措置を準備中だ。

AIチャットボットも政府が乗り出して規制する前に先制的な規制の動きを見せている。カリフォルニア州では未成年者と脆弱層を保護するためにAIチャットボットを規制する法案が州議会を通過した。来年から施行されるこの法案は、AIチャットボットを運営する企業に対し、プラットフォーム利用者の年齢確認機能とともに、AIチャットボットのすべての回答が人工的に生成されたものであることを明確に表示する機能などを備えることを義務付けた。

IT業界関係者は「AIチャットボットが青少年の日常と情緒に与える影響が大きくなった以上、成人と同じ基準を適用するのはもはや適切ではない」と述べ、「グローバルAI企業の立場では、SNSのように政府規制が本格化する前に、会社として先制的に安全装置を整えようとする動きが本格化している」と語った。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。