情報通信政策研究院(KISDI)のロゴ。/KISDIホームページのキャプチャー

生成型人工知能(AI)サービスが社会全般に定着するには、初期の好奇心を超えて利用者が実際の効用を体感し、誤りへの不安を和らげられる信頼の確保が要だという分析が示された。

情報通信政策研究院(KISDI)は2日発刊した「生成型人工知能サービス採択の先行要因に関する探索的研究」報告書で、生成型AIの継続利用と離脱要因をこのように指摘した。

報告書によると、生成型AIはコンテンツ生成機能を前面に急速に拡散しているが、継続的に使用する集団は一部の年齢層と職種に相対的に集中していることが分かった。研究陣は、サービス利用以後の段階で継続使用の可否を分ける要因として、単純なアクセス性よりも信頼、有用性認識、相互作用の経験を挙げた。

とりわけAIが示す不正確な回答やハルシネーションにより、利用者が追加検証に費やすコストが大きくなるとサービスの効用が低下し、結局は離脱につながる可能性が高いと分析した。逆に、個別化された回答、文脈を理解する対話、情緒的な共感といった経験は、利用継続の意図を高める要因として作用した。

チュ・ソンヒ情報通信政策研究院研究委員は、需要者の経験を反映した政策設計が必要だとし、有用性と不安を同時に感じる利用者のために信頼可能なAI環境の醸成が重要だと明らかにした。

情報通信政策研究院は、技術拡散政策も単純な普及から経験管理中心へ転換すべきだとし、ハルシネーション管理、透明性の強化、個別化されたデジタル・リテラシー教育、組織レベルでの活用基準の確立などを提案した。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。