ソーシャルメディア(SNS)のインスタグラムが、青少年が自殺や自傷に関連する用語を反復的に検索した場合に保護者へ通知を送る機能を提供する。
26日(現地時間)米国CNBCによると、インスタグラムは「保護者が子どもの状況を把握し支援できるよう設計した」と述べ、このように明らかにした。
青少年が短時間に自殺や自傷を誘発する文言やこれに関連する単語を検索すると、メール、テキストメッセージ、インスタグラムの通知などを通じて保護者に伝える仕組みだ。ただし保護者と青少年の双方が当該機能を登録する必要がある。
警告機能は来週、米国、英国、オーストラリア、カナダなどで順次適用される予定である。
最近、SNS業界を相手取り、たばこと同様に青少年に有害だという趣旨の訴訟が相次ぐなかで、インスタグラムが警告機能を追加したとCNBCは説明した。
先立ってインスタグラムの親会社であるMeta(メタ)プラットフォームズも、自社の人工知能(AI)チャットボットなどで青少年が自殺や自傷に関連する対話を試みた場合に保護者へ警告通知を送る機能をリリースする計画だと発表した。
※ 本記事はAIで翻訳されています。ご意見はこちらのフォームから送信してください。