イーロン・マスクテスラ最高経営責任者(CEO)が率いるソーシャルメディア(SNS)サービスのエックス(X、旧ツイッター)は、戦争に関連する人工知能(AI)生成映像を出所の明記なしに投稿する利用者への収益支払いを中止すると3日(現地時間)明らかにした。
米国とイスラエルのイラン空爆が続くなか、AIで生成した偽の戦争映像の閲覧数が急増し、真実を誤導したり混乱を招く事態を防ぐための措置である。
ニキータ・ビアX最高製品責任者はこの日、Xの投稿で「武力衝突を扱ったAI生成映像を投稿する際、AIで制作した事実を明らかにしない利用者は広告収益共有プログラムから90日間退場させる」とし、「再度違反した場合はプログラムから永久に除名する」と告知した。
Xの広告収益共有プログラムは、投稿が人気を得た場合に広告収益の一部を利用者に支払う制度である。Xで興味深いコンテンツ制作を促すために導入した制度だが、クリックを誘導する扇情的なコンテンツの大量生産を促すという批判も受けた。またコンテンツ管理基準が緩く、X有料購読者だけが利用できるとの指摘も出ていた。
ビア責任者は「戦争のような状況では、人々が真実の現場情報にアクセスできなければならない」と述べ、「しかし今日のAI技術では、人々を誤導し得るコンテンツを作るのがあまりにも容易だ」として、政策を導入した背景を説明した。
XはAIツールと集合知に基づく事実確認体制である「コミュニティノート」を通じて、誤解の余地がある戦争関連のAI投稿を識別する計画だ。
ただし新方針は戦争関連の映像などにのみ適用され、政治的・経済的な虚偽情報には適用されない。マスクCEOはXを買収して以降、虚偽情報を検証または制裁する装置の大半を撤廃または緩和した。