일러스트=챗GPT 달리3

서울에 살고 있는 30대 여성 A씨는 최근 본인 얼굴이 나온 카카오톡 프로필 사진과 배경 사진을 전부 삭제했다. A씨는 “본인 동의 없이 사진을 캡처해 딥페이크 영상물을 만든다는 이야기를 보고 소름이 돋아서 (사진을) 전부 내렸다”며 “벌써 내 얼굴로 만든 딥페이크 영상 있는 게 아닌지 궁금하기도 한데 차마 직접 검색은 못 하겠다”고 말했다. A씨는 카톡 프로필에 뒷모습이 나온 사진 1장만 남기고 있다.

딥페이크란 인공지능(AI) 심층학습을 의미하는 ‘딥러닝(deep learning)’과 가짜를 뜻하는 영단어 ‘페이크(fake)’를 합친 단어다. 특정 인물의 얼굴을 AI에 학습시킨 다음, 그 얼굴을 다른 사람이 나온 사진이나 영상에 교묘하게 합성시켜 만든 콘텐츠를 뜻한다.

그런데 최근 이 기술을 악용해 대학 단체 채팅방에서 여학생 얼굴을 음란물에 합성한 딥페이크 영상물이 유포되는 사건이 드러났다. 아울러 지인들 사진을 서로 공유하며 딥페이크 영상물을 제작·유포하는 텔레그램 대화방들도 추가로 발견되고 있다. 그러면서 A씨처럼 자신도 같은 피해를 입을 수 있다는 생각에 본인 얼굴이 드러난 메신저 프로필 사진을 삭제하는 움직임이 나타나고 있는 것이다.

인스타그램과 같은 소셜미디어(SNS)에 올렸던 얼굴 나온 사진을 지우거나, 아예 계정을 비공개 처리하는 경우도 있다. 30대 여성 유모씨는 “친구가 (딥페이크) 관련 기사를 보내주며 조심하라 경고하길래 SNS에 올린 내 사진과 영상을 전부 지웠다”며 “(내 사진이) 성범죄에 활용당할 걱정을 해야 하는 상황이 어처구니없고 소름 돋는다”고 말했다. 20대 여성 B씨는 “(딥페이크 때문에) 최근 계정을 비공개로 바꾸고 나와 친한 사람만 내가 올린 게시물을 볼 수 있도록 조치했다”고 했다.

딥페이크 피해자가 온라인에 유포된 게시물을 지워주는 디지털 장의사를 찾는 사례도 늘었다고 한다. 한 디지털 장의사 업체 대표는 27일 조선비즈와 통화에서 “이달 중순 이후 들어오는 의뢰 4건 중 1건이 딥페이크 관련된 것”이라며 “10대 피해자가 대부분이었고, 피해자 부모가 전화하는 경우도 있었다”고 말했다.

딥페이크 제작·유포 관련 범죄는 초·중·고를 비롯해 대학까지 연령을 불문하고 확산하는 추세다. 경찰청에 따르면 올해 1∼7월 딥페이크 성착취 범죄(성폭력처벌법상 허위영상물 등의 반포 등) 신고는 전국에서 총 297건 접수됐다. 입건된 피의자는 178명인데 이 중 10대가 131명으로 73.6%를 차지했다. 그 외 연령대는 20대 36명(20.2%), 30대 10명(5.6%), 40대 1명(0.6%) 등이다.

김봉식 서울경찰청장은 26일 기자간담회에서 “IT(정보기술) 기기에 익숙한 청소년을 중심으로 학생끼리는 물론 교사에 관한 영상까지 확산해 우려스럽게 생각한다”라며 “학생들이 심각성을 알 수 있도록 예방 교육을 강화하겠다”고 말했다.