生成型人工知能(AI)産業が成長基調を維持する一方で、著作権侵害やディープフェイクなどの法的リスクが同時多発的に噴出し、産業全体の持続可能性に対する懸念が高まっている。米国を中心に提起された訴訟が100件に迫る水準まで増え、AI企業は技術競争を超えて法的対応と規制リスク管理という新たな負担に直面したとの分析が出ている。
18日、業界と米国連邦裁判所の資料を総合すると、今月時点の生成型AI関連の著作権訴訟は91件と集計された。これに児童性搾取物(CSAM)およびディープフェイク関連の訴訟を含めると、AI関連の訴訟全体は96件である。2024年末に約30件水準だった訴訟が1年余りで3倍以上に増加したもので、事実上、産業全体が「集団訴訟局面」に突入したとの評価である。
最大の柱は著作権侵害訴訟である。報道機関や出版社、作家、芸術家などがAI企業を相手取り、学習データの無断使用と出力物の原文複製を問題視している。16日(現地時間)にはブリタニカとメリアム=ウェブスターがオープンAIを相手取り訴訟を提起し、紛争が一段と激化した。両社は約10万件に達する自社コンテンツが無断収集され、大規模言語モデル(LLM)の学習に使用されたと主張した。
とりわけ今回の訴訟は単純なデータ学習を超えて、AIが回答過程で原文をそのまま、または一部複製して出力し、検索基盤生成(RAG)の過程でコンテンツを活用してトラフィックと収益を侵食している点を核心争点としている。ブリタニカ側は「AIが報道・出版コンテンツを代替し、ウェブサイト訪問と収益を奪っている」と主張した。ニューヨーク・タイムズ(NYT)、シカゴ・トリビューンなど主要報道機関もすでに類似の論理で訴訟を進めている。
問題は、このような訴訟の核心争点である「学習データのフェアユース(公正利用)」の可否が、いまだ明確な判例として整理されていない点である。2025年のAnthropic事件では、モデル学習自体は変容的利用として認められたが、海賊版データをダウンロードした行為は違法と判断され、約15億ドル規模の和解が成立した。業界ではこの判例が今後の訴訟の基準となる可能性が大きいとみている。
ディープフェイクと児童性搾取物に関する訴訟も新たなリスクとして浮上している。同日、イーロン・マスクが率いるxAIは、自社AIモデル「グロック(Grok)」が未成年者の写真を基に性的画像を生成したとして、米国カリフォルニア連邦裁判所に集団訴訟を起こされた。原告側は、xAIが他のAI企業が適用している「実在人物のヌード生成の遮断」や「年齢フィルター」など基本的な安全装置を導入していないと主張した。
訴状によると、被害者は高校の卒業アルバムの写真などが変形され、性的画像として流布されており、一部はディスコードなどオンラインコミュニティを通じて拡散したことが判明した。原告側は、xAIモデルがサードパーティーのアプリでも活用された以上、モデルとサーバーを提供した企業にも責任があると主張している。
この事件は単なる個別被害を超え、AI産業全般に規制圧力を拡散させる契機として作用している。欧州連合(EU)とアイルランドのデータ保護委員会(DPC)が調査に着手し、米国でもAI基盤の性搾取物規制法案が強化されるなど、政策対応が速やかに続いている。
法的リスクが拡大するなかで、AI企業の収益性の問題も同時に浮き彫りになっている。生成型AIモデルを運用するには大規模データセンターと高性能GPUインフラが不可欠であり、これに伴う投資費用が数十億ドル規模へと急増しているためだ。ここに訴訟対応費用と潜在的な賠償金まで加わり、コスト構造が急速に悪化しているとの指摘が出ている。
実際に一部の信用格付け機関は、AIインフラ投資に関連する「隠れ債務」の可能性を警告している。データセンターの賃貸や特別目的事業体(SPV)を通じた投資構造が財務諸表に十分に反映されない可能性があるという分析だ。今後、訴訟リスクと結び付く場合、財務健全性の重荷として作用し得るとの見通しも示される。
キム・ミョンジュ韓国電子通信研究院(ETRI)人工知能安全研究所長は「米国で生成型AIの著作権訴訟が和解に至る場合が多いのは、企業が訴訟で一方的に有利ではないと判断しているためだ」と述べ、「フェアユースは著作権者の利益を侵害してはならないが、生成型AIはメディアと営業領域が直接衝突する構造であり、核心争点にならざるを得ない」と語った。続けて「このような構造で和解が増えるということは、費用負担が構造的に大きくなることを意味する」とし、「結局、企業が負担した費用はAI利用料の引き上げなどの形で利用者に転嫁される可能性が大きい」と付け加えた。