生成型人工知能(AI)の普及に伴い、AIモデルの内部作動原理を把握しようとするサイバー攻撃の試みが増えていることが明らかになった。
グーグル脅威情報グループ(GTIG)とグーグル・ディープマインドは13日に公表した「AI脅威追跡報告書」で、昨年4四半期に生成型AIを対象としたモデル抽出および蒸留攻撃の事例が確認されたと明らかにした。
モデル抽出・蒸留攻撃は、AIモデルの推論および思考過程を分析し、これを複製したり内部構造を把握しようとする試みである。報告書は、AIモデルが攻撃者により操作された場合、意図と異なる方式で作動して混乱を招き得ると指摘した。
ただし、これまで確認された事例はサイバー攻撃というより、モデルの論理を複製しようとする民間企業や研究者によって行われた場合が多かったと分析した。主な標的はグーグルの生成型AIモデル「Gemini」だった。
報告書はまた、中国やロシアなど国家の支援を受けるサイバー攻撃組織が、全般的な脅威活動にAIを活用する事例が日常化していると明らかにした。
イラン政府支援のハッキング組織APT42は、標的型ソーシャルエンジニアリング手法の高度化にAIモデルを活用しており、北朝鮮支援のハッカーグループUNC2970は、防衛産業体を狙った攻撃の過程でGeminiを用いて計画策定と偵察活動を進めたことが判明した。
グーグルが英語圏およびロシア語圏のダークウェブコミュニティを分析した結果、脅威行為者は自前のモデルを開発するよりも商用AIモデルを活用する傾向を示した。報告書は、最近APIキーの窃取と不正使用の事例が増加している点がこの流れを反映していると説明した。
※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。