NAVER AIクリーンボット3.0/NAVER

NAVERが悪質コメントを減らすため、人工知能(AI)ベースのコメント検知システムを一段と高度化した。

NAVERは29日から「AIクリーンボット3.0」のアップグレードを適用したと29日明らかにした。今回の改編の核心は、生命軽視的な表現や事件・事故の被害者および遺族に向けた二次加害性のコメントを集中的にふるい落とすことだ。単純な罵倒や卑俗語を遮断する水準を超え、コメントが付いた記事内容まで併せて分析し、悪意の意図を判断する方式である。

AIクリーンボット3.0はコメントの文だけを個別に見るのではなく、記事の見出しと本文を総合して文脈を把握する。同じ表現でも記事内容によって嘲笑や憎悪、蔑視の意味で使われたかをより精緻に判断するようモデルを改善したという説明だ。NAVERはこれにより、社会的事件・事故に関する記事で被害者や遺族に追加の傷を与えるコメントの露出を減らす方針だ。

NAVERは2019年にAIクリーンボットを初めて導入して以降、検知範囲を着実に広げてきた。初期には罵倒と卑俗語中心のキーワード検知に近かったが、2020年以降は文の文脈を反映し、露骨な罵倒がなくても侮辱性の表現まで感知するよう改善した。その後、性的嫌悪感を誘発する表現、憎悪・差別表現、記号や文字で迂回した悪質コメントへの対応も強化した。

政策的な措置も並行している。NAVERは悪質コメントが一定基準を超えた記事に対してコメントサービスを自動で非活性化し、利用者に案内文句と「グリーンインターネット」キャンペーンバナーを併せて表示する方式を適用している。政治・選挙関連記事のコメント運用も制限するなど、ニュースコメント環境の改善に乗り出している状態だ。

キム・スヒャンNAVERリーダーは「新たに登場する憎悪・蔑視・差別表現に対応するため、クリーンボットの性能を継続的に強化している」と述べ、「多様な意見を反映し、健全なコメント文化をつくる」と語った。

※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。