オープンAIのロゴ画像。

青少年がChatGPTと対話した後に極端な選択をする事件が相次ぎ、批判と訴訟に直面したオープンAIが利用者の年齢を判別するツールを導入した。

オープンAIはChatGPTの消費者向け料金プランに年齢予測モデルを順次導入していると18日(現地時間)明らかにした。このモデルは、利用者がChatGPTと交わす会話のテーマや主に利用する時間帯など多様なシグナルを分析し、当該利用者が18歳未満かどうかを判別する。

利用者が未成年と判別されるか年齢が不明確な場合、ChatGPTは直ちに「18歳未満」環境を強制適用し、暴力的な描写や危険行為を助長するチャレンジ、性的ロールプレイ、身体の歪曲コンテンツなどを遮断する。また未成年利用者に安全上の問題が発生するか、危険と評価される対話が行われた場合、ChatGPTは緊急サービスや危機支援機関への連絡を強く勧告する。

ただしオープンAIは「まだシステムが完璧ではなく、成人を未成年と誤認することもあり得る」と述べた。この場合、セルフィー動画やパスポートを含む政府発行の身分証によって成人であることを認証すれば、以前同様に利用できる。オープンAIはこの過程で提出された映像や身分証情報は検証直後、数時間以内に廃棄し、オープンAIは個人識別情報を保存しないと強調した。

ChatGPTは約款上、13歳未満はサービスにアクセスできず、13〜18歳は親または法定保護者の同意を得てのみ利用可能である。しかしオープンAIは最近まで、利用者が加入時に入力した生年月日を別途検証する手続きを設けておらず、未成年が親の承認なしに迂回加入した事例が多かったとされる。

先にカリフォルニア州の高校生アダム・レイン(16)をはじめとする未成年者がChatGPTと対話した後、妄想やうつ病などに苦しみ命を絶つと、遺族はオープンAIが未成年向けの安全装置なしでサービスを発売したとして訴訟を提起した。オープンAIは先月末、レイン事件を担当する裁判所に提出した文書で、レインが13〜18歳の利用者は保護者の同意を得るよう定めた約款を無視したと主張した経緯がある。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。