4일 구글플레이에서 ‘딥페이크(Deepfake)’를 입력하고 실행하자, 특정인의 얼굴·목소리를 뒤섞어 가짜 영상·이미지·오디오를 제작해 해주는 딥페이크 앱이 수십 여개가 쏟아졌다. 이 중 전 세계 약 1억명이 사용하는 딥페이크 앱 ‘리페이스(Reface)’를 내려받았다. 6500원(일주일 단위)만 내면 1분도 채 되지 않아 딥페이크 사진을 뚝딱 만들 수 있었다.

리페이스는 앱 상에 올라와 있는 사진이나 영상을 선택한 후 ‘페이스 스왑(Face Swap)’ 버튼을 누르면 이용자가 원하는 얼굴을 덧입히는 방식으로 딥페이크 콘텐츠를 생산했다. 가령 A 영화배우가 시상식에서 상을 받는 영상을 ‘페이스 스왑’ 버튼으로 윤석열 대통령 영상으로 바꿀 수 있는 것이다. ‘페이스 스왑’ 대상에 일반인 얼굴을 추가하면, 일반인을 대상으로 하는 딥페이크 콘텐츠가 만들어진다.

딥페이크 제작 앱인 '리페이스' 조작화면. 사진 속 얼굴을 '페이스 스왑' 버튼 하나로 다른 얼굴을 대체할 수 있다./리페이스 캡처

세계적인 팝가수 테일러 스위프트의 얼굴을 합성한 음란물이 최근 엑스(X·옛 트위터)를 통해 전 세계에 퍼지면서, 딥페이크를 악용한 콘텐츠에 대한 경각심이 커지고 있다. 글로벌 빅테크 기업들도 서둘러 대책을 내놓고 있다. 4·10 총선을 앞둔 한국 정치권에서도 딥페이크 규제를 시작했지만, 딥페이크 피해를 막기엔 역부족이라는 목소리가 나온다.

◇ 곳곳서 ‘딥페이크’ 피해 속출… 일반인도 못 피해

‘딥페이크’는 인공지능(AI)으로 특정 인물의 이미지나 목소리 등을 디지털 콘텐츠에 합성하는 기술이다. 지난 2017년 미 온라인 커뮤니티 ‘레딧’의 한 사용자(닉네임 deepfakes)가 유명 연예인의 얼굴을 포르노 영상에 합성한 편집물을 올린 것에서 유래됐다. 처음엔 연예인 얼굴이 주로 합성 대상이었지만, 누구나 손쉽게 조작할 수 있는 AI가 보편화되면서 일반인이 딥페이크 피해를 보는 사례도 급증하고 있다.

방송통신심의위원회가 국내에서 딥페이크 성적 허위 영상물에 차단·삭제 시정을 요구한 사례는 2020년 473건에서 2023년(11월까지) 5996건으로 12배 이상 급증했다. 월스트리트저널(WSJ)은 작년 11월 고등학생 여러 명이 교내 여학생들의 딥페이크 나체 사진을 만들어 유출하다가 발각됐다고 전했다. CNN은 최근 “유명인만이 아니라 간호사, 예술대생, 교사, 언론인 같은 사람들이 딥페이크의 표적이 된다”면서 대책 마련을 촉구했다.

선거를 앞둔 정치권에는 ‘빨간불’이 켜졌다. 딥페이크를 악용한 콘텐츠가 유권자의 판단을 흐릴 수 있기 때문이다. 이미 미국에서는 조 바이든 대통령의 가짜 전화 목소리로 투표 거부를 독려한 선거운동이 논란이 됐다. 한국에서도 지난해 지방선거를 앞두고 국민의힘 지지자로 추정되는 인물이 ‘AI 윤석열’을 활용해 당시 국민의힘 남해군수 후보를 지지하는 영상을 제작해 문제가 된 바 있다.

중앙선거관리위원회는 딥페이크로 인한 피해를 막기 위해 지난달 29일부터 딥페이크 영상을 활용한 선거운동을 금지했다. AI 기술로 만든 ‘실제와 구분하기 어려운’ 가상의 음향·이미지·영상 등의 활용이 일체 금지된다. 나아가 딥페이크 영상 등을 활용한 선거운동 의심 사례를 찾으면 검증요원 모니터링→딥페이크 판별프로그램 검증→AI 전문가 검증 등 3단계를 거쳐 법 위반 여부를 가리기로 했다.

김명주 서울여대 정보보호학과 교수는 “작정하고 만든 딥페이크 영상은 전문가도 구분하기 어렵고, 완성도가 높지 않더라도 열성 당원들의 확증 편향과 결합하면 정치적인 목적의 선전·선동에 악용될 가능성이 높다”면서 “AI는 빠르게 조작 영상·사진을 만들어내고, 소셜미디어(SNS) 등을 통해 확산되기 때문에 사람이 검증하는 걸로는 딥페이크 피해를 막는 데 한계가 있다”고 말했다.

인텔이 세계 최초로 사람의 혈류를 분석해 딥페이크 여부를 판별하는 페이크캐쳐 기술을 내놓았다./인텔 제공

◇ 탐지기술·규제 법안 쏟아져… SNS도 대책 마련

딥페이크를 악용하는 사례가 끊이지 않는 가운데, 딥페이크인지 아닌지 구별하는 기술도 함께 발전하고 있다. 인텔은 사람 얼굴의 혈류 변화를 추적해 딥페이크 여부를 식별하는 ‘페이크캐처’를 재작년 11월 출시했다. 페이크캐처는 영상 속 얼굴의 혈류 변화를 실제 인간과 픽셀 단위로 분석해 96%의 정확도로 진위 여부를 판단한다.

국내에서는 생성형 AI 전문 기업 딥브레인AI가 서비스형 소프트웨어(SaaS) 기반의 딥페이크 탐지 솔루션을 지난달 출시했다. 딥러닝 기반 AI 휴먼 데이터 등을 토대로 가상 얼굴 생성 기능인 ‘페이스 제너레이션’, 특정인의 얼굴로 교체하는 ‘페이스 스왑’, ‘립싱크’ 등의 기술 적용 여부를 확인할 수 있다. 또 해당 솔루션을 통해 음성의 주파수와 시간 등을 고려해 종합 분석하는 방식으로 음성 합성 여부도 판별이 가능하다.

세계 각국도 정부 차원의 대책을 내놓고 있다. 미국은 지난해 10월 바이든 행정부 주도로 딥페이크 영상·사진·음향에 의무적으로 워터마크(식별표시)를 부착하는 행정명령을 시행했다. 또 최소 13개 주에서 딥페이크 콘텐츠로 선거 관련 허위 정보가 확산하는 일을 방지하기 위한 법안이 추진되고 있다. 유럽연합(EU)도 플랫폼 기업에 AI 생성물 표시 의무를 부과하는 입법안을 내놓았고, 중국도 작년 1월 딥페이크에 대한 포괄적 규제를 시작했다.

한국 국회에서도 비슷한 움직임이 일어나고 있다. 김승수 국민의힘 의원은 최근 기술을 이용해 만든 거짓 정보를 온라인 게재 시 워터마크를 의무화하는 내용의 정보통신망법 개정안을 대표 발의했다. 이를 지키지 않을 시 1000만원 이하의 과태료 부과 및 해당 영상을 삭제할 수 있도록 하는 것이 골자다.

딥페이크 확산 통로로 지목된 SNS 기업들도 부랴부랴 대책을 내놓고 있다. 테일러 스위프트에 대한 딥페이크 음란 이미지 확산을 방치해 비판을 받은 X는 성착취물이나 허위정보를 단속할 ‘신뢰와 안전 센터’를 신설한다고 지난달 밝혔다. 센터에는 100여명의 콘텐츠 관리자가 정규직으로 상주해 성착취물, 특히 아동 관련 콘텐츠를 집중 단속할 예정이다.

김승주 고려대 정보보호대학원 교수는 “빅테크 기업들이 선의로 내놓는 딥페이크 기술을 악용하는 건 워터마크 요청 등을 할 수 있지만, 사적 기술로 만든 수준 높은 콘텐츠는 방지하지 못한다”면서 “수사력을 강화하고 일벌백계 하는 등 악용 사례마다 대책을 촘촘하게 세워야 한다”고 말했다.