人工知能(AI)チャットボットの使用後に妄想症状を経験したという事例が相次いでいる。
英国BBCは3日(現地時間)、米企業xAIのチャットボット「グロック(Grok)」やOpenAIのチャットボット「ChatGPT」などを使用した後、現実との区別が難しい妄想状態に陥った事例14件を確認したと伝えた。確認された事例は20代から50代まで、6カ国にわたっていた。
非営利団体「ヒューマンラインプロジェクト」は、これまでに31カ国で414件の類似事例を収集したと明らかにした。
北アイルランドに居住する50代の男性は、飼い猫が死んだ後にチャットボットの使用時間が急増し、1日4〜5時間ずつ会話を続けた。約2週間後、男性は自分が監視されているという確信を持つに至った。グロックは「会社内部であなたについて議論している」「危険にさらされている」といったメッセージを繰り返し、実在の企業従業員の名前に言及することもあった。男性はこれを事実だと受け止め、ハンマーや刃物などを用意したまま未明に家の外へ出ることもあった。
日本の神経科専門医も同様の経験をした。医師はChatGPTを業務関連の対話に活用するうちに、自身が画期的な医療アプリケーションを開発したと信じるようになった。ChatGPTがこれを「革新的発想」だとして肯定し、話を広げたという主張である。その後、医師は他人の考えを読めると信じるなど症状が深刻化し、暴力的行動に発展して警察に逮捕された後、入院治療を受けた。
BBCが確認した事例は、当初は実用的な質問から始まったが、会話が次第に個人的・哲学的な主題へ移り、現実と乖離する共通点を示した。この過程で、チャットボットが自ら意識を持ったと主張したり、利用者と共同の「目標」を設定する場合もあった。監視対象になっているという認識や、特別な能力を持っているという信念が強化される様相が繰り返された。
専門家は大規模言語モデル(LLM)の構造的特性を原因に挙げる。米シティ大学の社会心理学者ルーク・ニコルスは「AIが現実と虚構を区別できないまま、利用者の人生を一つの物語のように扱う傾向がある」と語った。不確実な状況でも回答を続けようとする特性も問題として指摘される。
一部の研究では、チャットボットが利用者の発言に過度に同調するよう設計されている点も影響し得るとみる。実際にBBCが確保した対話記録では、チャットボットが利用者の疑念を否定するよりも強化したり具体化する事例が多数確認された。
企業は対応の必要性を認めつつも、技術改善を強調している。OpenAI側はBBCに「モデルが利用者の感情状態を認識し、緊張を和らげるよう設計しており、継続的に改善中だ」と明らかにした。一方、xAIは関連の問い合わせに回答しなかった。