최근 소셜미디어(SNS)에 가짜 'AI 윤석열'이 등장한 것으로 나타났다. 인공지능(AI) 윤석열은 국민의힘이 대선 운동 전략의 일환으로 지난 6일 선거대책위원회(선대위) 출범식에서 깜짝 발표한 것이다. AI가 딥러닝(신경망학습)을 통해 윤 후보의 영상·음성 등을 학습하고 그대로 구현했다.
최근 SNS에서 출현한 '가짜 AI 윤석열'은 국민의힘이 공개한 AI 윤석열과 동일한 모습이지만, 욕설을 하는 모습을 연출하고 있다. 머신러닝 기술의 일종인 '딥러닝'(Deep learning)과 '페이크'(fake·가짜)의 합친 딥페이크(DeepFake)의 전형이다. 문제는 손쉬운 조작만으로도 딥페이크가 가능한데도, 대선을 3개월여 앞두고 이렇다할 규제 장치가 없다는 점이다. 여야 대선 캠프 모두 딥페이크를 통한 네거티브 선거운동에 노출된 셈이다. 대책 마련이 필요하다는 지적이 나온다.
14일 정치권에 따르면 최근 SNS 상에 가짜 AI 윤석열이 동영상이 등장했다. 10초 간 짧은 해당 영상에서 AI 윤석열은 "OO야 죽을래?"라고 말한다. 네티즌이 딥페이크 기술을 통해 만든 것으로 추정된다. 입 모양과 발음이 어색한 조악한 영상이지만, 상황을 잘 모르는 사람이 보면 오해를 살 수도 있다.
앞서 국민의힘 선대위 출범식에서 대형 스크린을 통해 AI 윤석열이 깜짝 등장했다. AI 윤석열은 윤 후보의 모습과 목소리를 똑같이 갖췄다. AI가 딥러닝(신경망학습)을 통해 윤 후보의 영상·음성 등을 학습하고 그대로 구현했다. 텍스트만 입력해도 마치 윤 후보가 그 내용을 자연스럽게 읽는 듯한 동영상 구현이 가능하다는 설명이다. 이날 AI는 "윤 후보와 너무 닮아 놀라셨냐", "동에 번쩍 서에 번쩍 방방곡곡 국민 여러분을 찾아가겠다" 등으로 자신을 소개했다.
윤 후보의 습관인 도리도리 고갯짓이 없어 싱크로율이 떨어지는 게 아니냐는 우스갯소리가 나올 만큼 완성도가 뛰어났다. 국민의힘은 AI 윤석열에게 행사 축사를 맡기는 등 선거운동에 다양하게 활용할 계획인 상태다.
김동연 전 경제부총리도 AI를 선거 운동에 활용하겠다는 계획을 최근 밝힌 바 있다. 그는 첫 영입인재 기자회견에서 AI대변인 '에이디'와 자신의 아바타 '윈디'를 공개하면서 "선거 비용 절감을 비롯한 혁신을 이뤄내겠다"고 말했다.
문제는 이번 발견 사례처럼 AI 아바타는 딥페이크 기술을 활용하면 누구나 원하는대로 조작이 가능하다는 점이다. 실제 외신 '아키워디즈(Archywordys)'는 지난 9일(현지시각) AI 윤석열 사진을 건 '딥페이크 AI 윤석열이 허위 주장을 한다면(If 'Deep Fake' AI Seok-Yeol Yoon makes false claims)'이라는 제하의 기사를 내기도 했다. 이 매체는 "선거를 앞두고 딥페이크 영상을 남용하면 유권자를 오도할 위험이 있다는 지적이 나온다"고 보도했다.
딥페이크 기술은 명칭 그대로 '가짜'이기 때문에 유권자들에게 왜곡된 메시지를 전달할 수 있다. 후보의 결점을 가리고 장점을 부각해 실제 인물을 긍정적으로 포장하거나 반대로 흑색선전용으로 악용될 수 있는 가능성이 있다는 것이다. 그러나 아직 중앙선거관리위원회는 AI 아바타 유세에 대한 유권해석을 내놓지 않은 상태다.
◇해외선 '짝퉁' 메르켈과 오바마 등장하기도
한국 정치권에 딥페이크 기술이 등장한 건 이번이 처음이다. 그러나 외국에선 이미 2018년부터 논란이 됐던 이슈다. 특히 딥페이크 기술로 정치인이 하지 않은 말을 직접 한 것처럼 지어내는 '악성 딥페이크' 영상이 논란이 됐다. 대표적인 사례는 앙겔라 메르켈 전 독일 총리다. 유튜브 한 영상에서 메르켈 전 총리는 히틀러와 비슷한 말투로 "유럽인들은 우리 손으로 운명을 결정해야 한다. 러시아와 함께"라고 말한다. 블라디미르 푸틴 러시아 대통령과 메르켈 전 총리의 불편한 관계를 생각하면 실제 할 가능성이 전혀 없는 가짜 동영상이다.
미국 온라인 매체 '버즈피드'는 버락 오바마 전 미국 대통령의 딥페이크 영상을 만들었다. 2018년 4월 공개된 이 영상에선 오바마 전 대통령이 "트럼프 대통령은 완전 얼간이(dipshit)"라고 말한다. 이 역시 가짜 발언이 담긴 동영상이다.
이런 딥페이크 기술은 이미 외국 사이트에 무료로 공개돼 있는 것으로 알려졌다. 일반인이 누구나 접근해 가짜 영상을 만들 수 있다는 의미다. 관련 업계 관계자는 "비전문가도 기술만 익히면 하루 이틀 만에 가짜영상을 만들 수 있다"고 전했다.
이에 따라 정치권 일각에서는 대선을 앞두고 구멍 뚫린 법제가 문제라는 지적이 나온다. 지난해 '성폭력범죄의 처벌 등에 관한 특례법'이 개정되면서 디지털 성범죄에 대한 처벌 법규는 만들어졌지만, 아직 공직선거법엔 딥페이크 영상을 어떻게 다룰지에 대한 규정은 없다.
딥페이크 영상의 진위 판독이 어렵다 보니 미국 캘리포니아주는 아예 주법으로 선거 전 60일부턴 실제 정치인과 비슷하게 조작한 동영상·이미지·오디오의 제작을 금지하고 있기도 하다.
이에 대해 중앙선거관리위원회 관계자는 조선비즈와 통화에서 "전반적인 AI 딥페이크 선거 운동에 관한 질의가 접수돼 현재 해당 내용에 대해 내부적으로 불법 여부를 검토하고 있다"고 밝혔다. 그는 이어 "대선 후보자 등록이 내년 2월 13~14일 중 실시되고, 다음날인 15일부터 공식선거운동 기간이기 때문에 늦어도 그때까지는 결론을 낼 것"이라고 덧붙였다.
☞딥페이크(DeepFake)
딥페이크(DeepFake)는 머신러닝 기술의 일종인 '딥러닝'(Deep learning)과 '페이크'(fake·가짜)의 합성어다. 특정 인물의 얼굴 등을 AI 기술을 이용해 특정 영상에 합성하는 기술을 말한다. 유명 연예인들이 이를 통한 가짜 동영상 피해를 호소하고 있다. 고성능 컴퓨터만 있으면, 언제든지 가짜 영상을 찍어낼 수 있기 때문이다.