메타가 인스타그램에서 청소년 보호를 강화하기 위해 성인용 검색어와 잠재적 유해 콘텐츠를 차단하는 새로운 정책을 도입한다. 회사 측은 이번 조치가 PG-13 등급 수준의 콘텐츠만 청소년이 볼 수 있도록 하는 것을 목표로 한다고 설명했다.
메타는 14일(현지시각) 보도자료를 통해 "인스타그램 청소년 계정을 영화 심의 기준인 PG-13 등급 수준으로 운영하겠다"며 "대마초 관련 용품이나 욕설이 심한 게시물 등 청소년에게 부정적인 영향을 줄 수 있는 콘텐츠를 숨기거나 추천하지 않을 것"이라고 밝혔다.
또 자살·자해·섭식장애 등 기존의 민감한 주제뿐 아니라 '알코올', '폭력' 등 성인용 소재와 연관된 검색어도 차단 대상에 포함했다. 이에 따라 청소년 이용자는 관련 콘텐츠를 검색하거나 노출될 수 없게 된다.
아울러 미성년자에게 부적합한 콘텐츠를 반복적으로 게시하는 계정은 청소년이 팔로우하거나 메시지를 주고받을 수 없도록 제한한다.
메타는 이번 업데이트를 통해 부모가 자녀의 인스타그램 콘텐츠 노출을 더 세밀하게 관리할 수 있도록 지원한다고 밝혔다. 이 정책은 미국·영국·호주·캐나다 청소년 계정에 우선 적용되며, 연말까지 확대 적용된 뒤 전 세계로 단계적으로 확대될 예정이다.
그러나 시민단체들은 메타의 이번 조치에 여전히 회의적인 입장을 보이고 있다. 비영리단체 '페어플레이'의 조시 골린 사무총장은 "이번 조치는 규제 입법을 피하기 위한 홍보 수단으로 보인다"며 "이런 발표만으로는 아이들을 안전하게 지킬 수 없고, 진정한 책임과 투명성이 필요하다"고 지적했다.
부모단체 '페어런츠투게더'의 에일런 아레아사 대표 역시 "메타는 그동안 비슷한 약속을 여러 차례 했지만, 실제 실행은 부족했다"며 "이번에도 독립적 검증과 구체적 성과 공개가 뒤따라야 한다"고 강조했다.