イーロン・マスク テスラ最高経営責任者(CEO)/聯合ニュース

イーロン・マスクが率いる人工知能(AI)企業xAIのAIチャットボット「グロック」が、女性を性的に対象化する画像を9日間で200万件近く生成したことが判明した。

ニューヨーク・タイムズ(NYT)が今月1〜7日にグロックがソーシャルメディア(SNS)プラットフォームのXで生成した画像52万5000件を分析した結果、このうち少なくとも41%が女性の性的画像だったと22日(現地時間)に報じた。

これを昨年12月31日から今月8日までの9日間にグロックが生成した440万件に当てはめると、性的搾取ディープフェイク(Deepfake・AI合成写真)は180万件に達するとの分析が出ている。

NYTは、画像に女性の姿が含まれているかを識別するAIモデルと、画像が性的な性格を帯びているかを判別するモデルを分析に用い、その後一部を手作業で検証したと説明した。

分析対象の画像には俳優や歌手などの著名人が含まれており、アダルトグッズを手にしていたり、体液などとともに描写された事例もあった。先月末からXでは、ユーザーがチャットボットのアカウントに実在の女性や子どもの写真を改変して服を脱がせたりビキニを着せ、性的なポーズを取らせるよう求めるリクエストを相次いで送ったとNYTは伝えた。

デジタル憎悪対策センター(CCDH)がグロックが生成した画像のうち2万件を無作為抽出して行った別の分析では、サンプルの65%がNamsungと女性、子どもの性的画像であることが判明した。

とりわけ子どもを対象にした性的搾取物が101件確認され、これを比例換算すると2万3000件以上に子どもが含まれていたと推計されるとCCDHは説明した。

このようなディープフェイクの生成リクエストは、マスクがグロックを使って修正した自身のビキニ姿の写真をXに投稿した昨年12月31日以降に急増したとNYTは指摘した。Xの投稿を収集する企業ツイートバインダーの分析によると、その前の9日間にグロックが生成したAI画像は31万件余りにすぎなかったが、その後の9日間で爆発的に増え、440万件になったという。

これを受けXは有料利用者にのみグロックの画像生成機能を提供し、ビキニなど露出の多い衣装で人物を描写できないようにするなど機能を制限した。しかし依然として体のラインが出るレオタードやワンピース型水着の生成は可能な状況である。またXとは別のプラットフォームとして運用されるグロックの専用アプリやウェブサイトでは、このような制限が適用されていなかったとも付け加えた。

イムラン・アーメドCCDH代表はNYTに「これは女性と少女を対象にした産業的規模の虐待だ」と述べ、「以前にも『脱衣化』ツールは存在したが、マスクのグロックのような普及規模、悪用の容易さ、大手プラットフォームへの編入はなかった」と批判した。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。