앞으로 온라인 게임에서 욕설을 하면 숨어있던 인공지능(AI)이 이를 감지해 빠른 조치를 당할 수 있다. /아이스톡

온라인게임에서 욕설이나 성희롱이 섞인 부적절한 채팅을 하면 자동으로 제재하는 인공지능(AI) 기술이 개발됐다. 피해자가 운영진에 신고하기도 전에 가해자에게 자동으로 제재를 가할 수 있어 온라인 게임 문화 개선에 기여할 것으로 기대를 모은다.

과학 전문지 뉴사이언티스트는 7일(현지 시각) 온라인 게임 음성 채팅에서 오고가는 욕설을 자동으로 식별하는 심층학습(딥러닝) AI ‘톡스모드(ToxMod)’가 현재 시범 서비스 중이라고 전했다. 한국은 물론 전 세계 최고 인기 게임 ‘리그오브레전드(LoL)’ 개발사 라이엇게임즈를 비롯해 여러 가상현실(VR) 기반 온라인 게임들이 톡스모드를 시험 적용 중이다

톡스모드는 온라인게임과 함께 작동하다가 부적절한 내용이 섞인 음성채팅을 감지하면 그 부분만 데이터화해 서버에 저장하도록 설계됐다. 데이터는 이용자 프라이버시 보호를 위해 자동으로 암호화된다. 톡스모드가 감지하는 음성채팅은 내용에 따라 폭력적 언행, 성적 언행, 성별 혐오, 인종 혐오 등 카테고리로 나뉜다.

톡스모드는 단순히 수위가 높은 단어만 골라내는 게 아니라 문장 전체 내용과 그 앞뒤 맥락, 심지어 게임 장르까지 고려한다고 개발사인 모듈레이트는 설명했다. 예를 들어 전쟁터를 배경으로 상대편을 쓰러트려야 승리하는 방식의 게임이면 ‘쏴라’ ‘죽여라’와 같은 말을 언어 폭력으로 인식하지 않도록 운영진이 시스템을 설정할 수 있다는 것이다.

수백만개의 음성채팅을 동시에 분석할 수 있는 것도 톡스모드의 장점이다. 카터 허프먼 모듈레이터 창립자는 “다중 알고리즘 게이트를 이용해 폭력적 음성채팅을 걸러내는 것은 물론 폭력성이 얼마나 심각한지에 따라 우선순위를 정해 빠르게 나열할 수 있는 기술도 갖췄다”고 말했다.

톡스모드 시스템 화면. 인공지능(AI)이 잡아낸 폭력적 음성채팅 기록을 확인해 곧바로 징계 여부와 수위를 결정할 수 있도록 돼있다. /유튜브 캡쳐

톡스모드가 적발한 음성 채팅은 ‘라이브 스트림’이라 불리는 곳에 오디오 형태로 저장된다. 운영진은 이 곳에서 채팅이 발생한 날짜와 시간, 채팅을 한 이용자 아이디, 채팅 내용, 채팅 앞뒤 맥락까지 전부 확인한 뒤 게임 내 징계 여부와 그 수위를 정할 수 있다.

음성 채팅을 확인한 운영진이 어떤 결정을 내리느냐도 데이터로 바뀌어 톡스모드가 재학습한다. 운영진이 톡스모드를 오래 사용할수록 채팅을 정확하게 분석하는 것은 물론 게임 특성에 맞게끔 시스템이 스스로 개선된다는 것이다.

게임 속 언어폭력을 제재하는 방식은 지금껏 수동적일 수밖에 없었다. 언어폭력을 당한 이용자가 피해 내용을 글로 정리해 운영진에 보내면 운영진이 이를 확인해 가해자 계정을 정지하는 식이었다. 때문에 신고에서 징계까지 상당한 시간이 걸리거나 아예 피해자가 아무런 조치를 받지 않는 경우도 잦았다.

반면 톡스모드를 사용하면 게임 속 언어폭력 피해자가 이를 신고하기도 전에 운영진이 능동적으로 움직여 징계를 내릴 수 있다. 톡스모드가 알아서 문제가 되는 음성채팅 데이터를 모아주면 운영진이 앞뒤 상황을 파악한 뒤 징계 수위를 결정하면 된다. 빠르고 효율적으로 게임 속 언어폭력을 제재할 수 있다는 뜻이다.

온라인 게임에서 폭력적 언행을 듣게 되는 건 피하기 어려운 일이 되고 있다. 미국 명예훼손방지연맹(ADL)이 지난해 12월 미국인 게이머 2124명에 진행한 설문조사 결과 성인 86%, 10대 66%, 10대 미만 70%가 온라인 게임 도중 음성채팅으로 욕을 들어본 경험이 있다고 답했다. 성인 20%, 미성년자 15%는 백인 우월주의 이념이 담긴 음성채팅을 들어본 것으로 나타났다.

한국에서도 온라인 언어 폭력은 점점 심각한 문제가 되고 있다. 경찰청에 따르면 지난 2021년 온라인상에서 성적 언행, 욕설을 했다가 통신매체 이용 음란죄 혐의로 입건된 피의자는 4991명이다. 2020년(2300명) 대비 117% 급증한 수치다.