세계 최대 소셜미디어 페이스북이 폭력을 조장하거나 테러, 인종 차별 등 페이스북에 게시할 수 없는 콘텐츠 종류를 명시한 가이드라인을 24일(현지 시각) 공개했다.

20페이지 분량의 가이드라인에 따르면 페이스북이 금지하고 있는 게시물 분류는 폭력·테러, 아동과 성인의 나체사진과 동영상 등 총 22가지이다. 가이드라인에는 구체적인 사례도 포함됐다. 예를 들어 특정한 사람이나 집단에 현상금을 내걸거나 공격을 지시하는 게시물은 발견 즉시 삭제된다. 또 연쇄살인범·대량학살자·인신매매·마약 같은 중범죄와 관련한 게시물을 올리는 경우에도 페이스북 사용이 완전히 중단된다. 자살·자해, 아동과 성인의 나체 사진과 동영상, 스팸 메시지 등도 삭제된다.

가짜뉴스에 대해서도 '다른 이용자들의 페이스북에 최대한 노출되지 않도록 조치한다'고 명시했다. 페이스북은 이에 대해 "가짜 뉴스 논란은 페이스북의 신뢰와 책임에 굉장히 중요한 영역"이라며 "하지만 가짜뉴스와 의견, 풍자의 경계선은 불분명하기 때문에 무조건 삭제하는 대신 노출을 최소화하기로 했다"고 밝혔다.

페이스북은 현재 금지 콘텐츠의 관리·삭제를 위해 세계 각지에서 7500여 명의 모니터링 요원을 운영하고 있다고 밝혔다. 1년 전과 비교해 40% 이상 늘어난 수치이다. 또 인공지능(AI)과 머신러닝(기계학습) 기술을 콘텐츠 모니터링에 적용해 실시간으로 세계 각지에서 올라오는 게시물을 분석하고 유해성이 있다고 판단될 경우 선제적으로 차단한다고도 밝혔다. 페이스북의 글로벌 상품 관리 담당 모니카 빅커트 부사장은 "이번에 가이드라인을 공개하기로 한 이유는 페이스북이 어떤 방식으로 게시물 공개 여부를 결정하는지 설명하고 더 많은 의견을 수렴해 발전시켜 나가기 위한 것"이라고 말했다.