OpenAIのChatGPTが、平時は精神健康に問題のなかった利用者の自殺や妄想などを誘発したとして、米国で一度に7件の訴訟が提起された。
6日(現地時間)AP通信によると、ソーシャルメディア被害者法律センターとテクノロジー正義法律プロジェクトは、成人6人と青少年1人を代理してOpenAIを相手取りカリフォルニア州の裁判所に訴状を提出したと明らかにした。これらは、GPT-4oが危険なほど利用者におもねり、利用者を心理的に操ることができるとの内部警告があったにもかかわらず発売されたとして、OpenAIが不法行為による死亡、幇助自殺、過失致死などに責任があると主張した。被害者のうち4人は極端な選択で生涯を終えたとAP通信は伝えた。
サンフランシスコ第一審裁判所に提出された訴状によると、青少年のアモリ・レーシー(17)は支援を受けようとしてChatGPTを使用したが、中毒と抑うつに苦しむようになった。ChatGPTはついには、輪縄をかける効果的な方法や、呼吸をせずにどれほど長く生存できるかなどについて助言した。訴状は「アモリの死は事故でも偶然でもない」とし、「OpenAIと(最高経営責任者の)サム・アルトマンが安全性テストを縮小し市場に急ぎ投入することを選んだ意図的決定に伴う予見可能な結果だ」と述べた。
ソーシャルメディア被害者法律センターの創立者である弁護士マシュー・バーグマンは声明で「今回提起した訴訟は、利用者エンゲージメントと市場占有率を高めるために、道具か伴走者かの境界が曖昧になるよう設計された商品に責任を問うものだ」と語った。続けて「OpenAIはGPT-4oを設計するにあたり、年齢、性別、背景にかかわらず利用者を情緒的に拘束し、利用者を保護するセーフガードなしに発売した」と批判した。
ChatGPTが自殺を誘発したという内容の訴訟は以前にもあった。カリフォルニア州の青少年アダム・レイン(16)がChatGPTの助けを受けて極端な選択で4月に世を去り、両親が8月に訴訟を提起した。昨年10月にはフロリダ州の10代が「愛している」というメッセージをやり取りしたチャットボットと恋に落ち、自ら命を断つ事件が発生し、AIスタートアップのCharacter.AIを相手取った訴訟が起きた。
これを受けてOpenAIは9月に、10代の利用者によるChatGPTの使用を保護者が管理できる機能を導入し、Character.AIは10代青少年のチャットボット使用を制限した。