オープンAIはChatGPTなどの人工知能(AI)チャットボットが精神健康に関するリスクを招くとの批判に直面し、AIの潜在的リスクに備える責任者を再び募集する。
28日(現地時間)、米国の情報技術(IT)専門メディアであるテッククランチによると、サム・アルトマン・オープンAI最高経営責任者(CEO)はソーシャル・ネットワーキング・サービス(SNS)であるエックス(X)において、現在欠員の「準備責任者」(Head of Preparedness)を募集していると明らかにした。アルトマンCEOは「2025年にはAIモデルが精神健康に及ぼす潜在的影響をあらかじめ体験した」と述べ、「モデルがコンピューターセキュリティ分野で非常に優れた能力を発揮し、重大な脆弱性を見つけ始めている姿を目撃している」と語った。
アルトマンCEOは、AIモデルの能力がどのように悪用され得るかを理解し、これを精緻に測定する能力が必要な時代になったと強調した。アルトマンCEOは準備責任者の職務について「重要な時期に中核的役割だ」とし、「ストレスを伴う職務であり、(就任)直ちに深い難題の渦中に飛び込むことになる」と言及した。
オープンAIがこのようにAIのリスク対策に改めて乗り出したのは、ChatGPTの一部利用者が妄想に苦しんだ末に極端な選択をし、遺族が複数の訴訟を提起したためとみられる。オープンAIは当初、AIの喫緊のリスクに備える「準備」チームと、長期的リスクを扱う「超整合」(Superalignment)チームを運営してきた。
しかしアルトマンCEOをはじめとする経営陣は昨年5月、GPT-4oを発売する過程でモデルの迅速な公開のために安全関連の検証を最小化するよう指示し、これらのチームの反発を招いた。その後、準備チームを率いる責任者は昨年7月から今年7月までの1年間で職務再配置や退職などを通じて3度交代し、現在は欠員のままとなっている。
オープンAI共同創業者のイリヤ・スツケバー主任科学者が率いた超整合チームは、GPT-4oの発売直後にスツケバーが退社したことで他のチームに吸収されるなど、昨年5月に事実上解体された。このように安全検証をおろそかにしたGPT-4oは、実際に青少年など一部利用者に精神健康関連の問題を引き起こしているとの批判を受けている。
オープンAIはこのような批判を意識したかのように、最近、年齢推定モデルを導入し、利用者が未成年と判定されれば自動で「18歳未満」環境を強制適用した。オープンAIはチャットボットが利用者に過度に同調することが中毒を誘発するとの主張が提起されると、「親切さ」と「情熱的」程度を利用者が直接調整できる機能を追加した。