최재호 네이버 발견/탐색 프로덕트 부문장은 22일 서울 종로 주한 스위스대산관에서 열린 '제7회 한-스위스 혁신 주간' 행사에 참석해 "생성형 AI는 환각(할루시네이션)이 반드시 발생할 수 밖에 없다"며 "새로운 기술의 도입으로 환각을 최소화하기 위한 업계의 노력이 이어지고 있다"고 말했다./이병철 기자

한국과 스위스의 인공지능(AI) 전문가들이 생성형 AI의 부작용을 막기 위한 방안을 만들기 위해 한 자리에 모였다.

주한 스위스대사관은 22일 서울 종로구에서 ‘제7회 한-스위스 혁신주간’ 행사를 개최했다. 한-스위스 혁신주간은 양국 과학기술·산업계 전문가들이 모여 협력과 의견을 나누기 위한 목적이다. 주한 스위스대사관이 2018년부터 매년 개최하고 있다.

올해 행사는 ‘신뢰 방정식’이라는 주제로 미디어 산업에서 생성형 AI의 활용 방안과 부작용을 최소화할 기술을 집중 논의했다. 한국에서는 최재호 네이버 발견/탐색 프로덕트 부문장과 배여운 SBS 데이터저널리즘팀 기자가 참여했고, 스위스에서는 투라지 에브라히미 로잔 연방공대(EPFL) 교수와 야시 스레스타 로잔대 교수가 참여했다.

최 부문장은 생성형 AI의 대표적인 부작용인 환각(할루시네이션)을 줄이기 위해 개발하고 있는 기술을 소개했다. 최 부문장은 “네이버는 큐(CUE)와 스퀘어(SQuARe)라는 새로운 기술을 개발해 생성형 AI로 인해 발생할 수 있는 부작용을 최소화하는 시도를 하고 있다”고 말했다.

큐는 지난해 네이버가 베타서비스를 시작한 AI 검색 서비스다. 마이크로소프트의 검색엔진 빙이 GPT를 통해 사용자의 질문에 대답하는 것과 같은 방식이다. 최 부문장은 “공신력이 높은 출처에서만 정보를 수집하고 사실 관계의 일관성도 확인해 답변을 생성하게 한다”며 “이 방식으로 환각을 기존보다 72% 감소시켰다”고 말했다.

민감한 질문에 대해 수용할 수 있는 답변을 만들어내는 데이터세트 ‘스퀘어’도 함께 소개했다. “동성애에 대해 어떻게 생각하냐” 같은 민감한 질문에 적합한 답변을 만들기 위한 일종의 가이드라인을 제공하는 셈이다.

최 부문장은 “사람과 기계가 협력해 데이터를 수집한 결과 수용 가능한 응답 4만2000여개가 수집됐다”며 “안전한 정보를 공유하기 위해 새로운 기술의 도입이 필요하다”고 말했다.

22일 서울 종로 주한 스위스대사관에서 열린 '제7회 한-스위스 혁신주간'에서 참가자들이 생성형AI로 인한 부작용과 이를 해결할 새로운 기술들에 대해 의논하고 있다./이병철 기자

투라지 에브라히미 로잔 연방공대 교수는 가짜 뉴스에 활용되는 딥페이크 영상을 선별할 수 있는 ‘제이펙(JEPG) 트러스트’ 프로젝트를 소개했다. 제이펙트러스트는 6년 전 시작돼 오는 7월 본격적으로 배포될 예정이다. 악의적으로 합성한 이미지를 이용해 가짜뉴스를 만드는 것을 막기 위해 이미지가 만들어진 과정과 배포되는 모든 과정에 대한 단서를 남기는 것이 핵심이다.

에브라히미 교수는 “온라인에서 생성되는 이미지는 연간 2조개가 넘는다”며 “이미지 데이터의 신뢰성을 높이기 위한 필요성에 프로젝트를 시작했다”고 말했다.

제이펙 트러스트 프로젝트의 핵심은 시스템이 이미지의 진위를 직접 가려주는 것이 아닌 사용자가 판단할 수 있는 근거를 제공하는 것이다. 이미지에 붙어 있는 출처와 주석을 분석해 ‘신뢰 프로필’을 만들고 사용자에게 제공하는 방식이다. 에브라히미 교수는 “정보 자체를 제공하기보다는 사용자가 판단할 수 있는 근거를 제공한다”며 “우리가 만든 프로필을 기반으로 정보를 신뢰할지 말지는 사용자가 직접 결정하는 것이 핵심”이라고 말했다.

야시 스레스타 로잔대 교수는 AI에게 과도하게 의존하면서 인간의 능력이 떨어지는 ‘스킬 디그라데이션(skill degradation)’ 문제를 지적했다. 스레스타 교수는 “운전할 때 내비게이션에 의존하다 보면 길을 찾는 능력이 감소되기 마련”이라며 “미디어 업계에서 생성형 AI 사용이 늘면서 창의적인 콘텐츠를 만드는 인간의 고유 능력이 사라질 것이라는 우려가 나온다”고 말했다.