지난 6월 러시아에서 방송된 블라디미르 푸틴 러시아 대통령의 계엄령 선포 영상이 딥페이크로 만들어졌다고 뒤늦게 밝혀졌다. 러시아 당국은 이를 딥페이크 기술로 만들어진 가짜 영상이라고 밝혔으나, 한때 사회적으로 큰 혼란을 빚었다./트위터 캡처

생성형 인공지능(AI) 기술이 발전하면서 정교해지는 ‘딥페이크’가 사회적 문제로 떠오르고 있다. 영화, 드라마, 게임 같은 콘텐츠에 활용도가 커서 차세대 영상 기술 중 하나로도 주목 받고 있지만, 이를 악용해 ‘가짜뉴스’를 제작, 배포하는 사례가 늘면서 규제 강화를 요구하는 목소리가 힘을 얻고 있다. 실제 사기와 음란물 제작부터 정치적인 사건까지 딥페이크 영상으로 인해 혼란을 겪는 사례가 나오고 있다.

지난달 5일 러시아 국경 지역에서는 블라디미르 푸틴 러시아 대통령의 계엄령 선포 연설이 담긴 영상이 방송됐다. 당시 영상에서 푸틴 대통령은 “우크라이나군이 북대서양조약기구(NATO)의 지원을 받아 러시아를 침공했다”며 “국경 지역에 계엄령을 선포하고 주민들은 대피하라”고 연설했다. 이 영상은 SNS를 통해 전 세계에서 큰 관심을 받았으나, 이후 해킹 조직이 만든 딥페이크 영상이라는 것이 밝혀졌다. 해킹 조직의 정체는 아직 밝혀지지 않았으나 러시아와 우크라이나의 전쟁에 영향을 미치려는 조직의 소행으로 알려졌다.

딥페이크로 만든 콘텐츠는 사회적 혼란을 유발하는 것뿐 아니라 실제 피해자를 만들기도 한다. 음란물 제작에 딥페이크를 사용하는 것이 대표적 사례다. 올해 초 영국의 영화배우 엠마 왓슨의 사진을 도용한 음란 광고가 소셜 미디어에 일주일 가량 게시되기도 했다. 엠마 왓슨뿐 아니라 미국의 영화배우 스칼렛 요한슨의 사진도 음란 광고에 도용됐다.

국내에서도 딥페이크 기술을 이용한 보이스피싱 범죄가 점차 늘 것이라는 우려가 나오고 있다. 국가정보원은 지난 5월 보이스피싱 피해 예방을 위해 최신 수법을 공유하면서 “딥페이크 등 새로운 기술이 범죄에 악용될 수 있는 만큼 음성, 영상 통화시에 주의를 기울여야 한다”고 경고했다.

딥페이크 기술은 사람들이 영상을 더 쉽게 믿도록 만든다는 점에서 범죄에 악용될 우려가 크다. 아일랜드 코크대 연구진이 이달 6일 국제 학술지 ‘플로스 원’에 소개한 연구에 따르면 딥페이크를 이용해 실제 있었던 사건에 가짜 정보를 더하면 사람들은 이를 실제 사건으로 기억하는 경향이 나타난다. 연구진은 과거 영화에 딥페이크 기술을 사용해 가짜 리메이크 작품을 만들고 이를 사람들에게 소개했다. 절반 가량의 참가자는 가짜 영화를 실제로 본적이 있다고 답했다. 딥페이크 영상이 사람들의 기억보다 더 쉽게 받아 들여지며 영상에 노출된 사람들의 기억에도 영향을 미친다는 것이다.

코크대 연구진은 “딥페이크로 만든 가짜 콘텐츠는 사람들이 별다른 의심없이 받아들이는 경향이 더 크게 나타난다”며 “사람들의 선입견과 편견을 만드는 콘텐츠에 활용할 수 있다는 점이 특히 우려되는 점”이라고 말했다.