미국, 유럽연합(EU), 일본 등 세계 각국이 빠른 속도로 발전하는 인공지능(AI) 시대에 대비해 법, 윤리 가이드라인을 제정하고 있다. 지난해부터 논란을 일으킨 딥페이크(Deep Fake, 딥러닝과 페이크의 합성어로 AI를 이용해 이미지를 합성하는 고도의 기술) 등 AI 기술의 부정적 측면이 강조되기 시작하면서 이런 움직임이 더욱 빨라진 것이다.

29일 한국정보화진흥원(NIA)에 따르면 최근 미국, EU, 일본 등 선진국을 중심으로 AI 개발과 활용에 대한 구체적 윤리원칙과 가이드라인이 속속 등장하고 있다. 특히 EU, 일본이 내놓은 가이드라인은 AI 개발자를 비롯해 기업, 소비자 등 모든 주체에 적용해 AI를 규제하기보다는 투명성을 높여 정보통신기술(ICT) 산업을 강화한다는 것이 골자다.

딥페이크 기술을 활용해 배우 알렉 볼드윈(왼쪽)과 도널드 트럼프 미국 대통령을 합성한 영상.

지난 2012년 딥러닝(Deep Learning)이 본격적으로 개화하기 시작하면서 AI 기반의 신기술을 여러 방면에서 빠르게 진화하고 있다. 동시에 부정적인 측면도 부각됐다. 지난해부터 기승을 부린 딥페이크의 경우 디지털 콘텐츠의 합성, 생성이 실사와 거의 차이가 없는 수준으로 구현되면서 사기, 음란물 등의 우려를 확산시킨 바 있다.

NIA는 보고서를 통해 "인공지능 기술 발전이 고도화됨에 따라 긍정적인 성과와 함께 예상하지 못한 사회적 윤리적인 우려가 커지고 있다"며 "또 기술의 불완전성, 데이터의 부족 및 잘못된 학습 등으로 인공지능의 부정확한 판단이 인간의 삶에 부정적인 영향을 가져올 수 있다"고 설명했다. AI가 머지않은 미래에 사회 전반에 확산할 것을 예상한 각국 정부가 신뢰할 수 있는 AI 개발·활용에 힘을 쏟는 것도 이 때문이다.

미국 전기전자기술자협회(IEEE)는 이미 2016년에 '아실로마 AI 원칙'을 발표해 올해 국제표준화를 목표로 꾸준히 가이드라인을 업데이트해왔다. 이후 올해 2월 미국 하원은 'AI의 윤리적 발전을 위한 결의안 531'을 발표해 AI의 설명 가능성, 개인정보보호, 안전성 등에 관한 지침을 제시했다.

EU는 2007년부터 일찌감치 AI의 활용에 대한 개발자 가이드라인을 제공해왔다. 올해 4월에는 EU 집행위원회가 공식적인 AI 거버넌스 프레임워크를 개발하고, AI 고위전문가그룹이 마련한 AI 윤리 기준을 발표했다. 이 기준은 AI의 윤리적 목적, 지켜야할 기본권, 신뢰성 평가리스트 등을 구체적으로 제시하고 있다.

일본도 'AI 레디'를 강령으로 AI에 대한 기본 이념부터 실질적인 개발단계에서의 윤리적 원칙을 제시하기 시작했다. 일본은 총무성 산하의 AI네트워크사회추진회의를 중심으로 전문가 집단을 꾸준히 확보해왔고 2016년에 첫 개발 지침을 발표했다. 내각부에서는 지난해부터 '인간 중심의 AI 사회원칙안'을 수립했다. 일본 정부가 내놓고 있는 AI 가이드라인의 특징은 '인간 중심의 원칙'을 내세우며 철저한 개인정보보호와 보안 이슈를 강조한다는 점이다.

AI 선도국으로 꼽히는 세계 각국이 AI의 윤리적 활용과 투명한 발전을 위한 논의를 가이드라인으로 구체화하는 가운데 한국은 아직 제대로 걸음도 떼지 못하고 있다는 지적이 나온다. 지능정보사회와 관련된 다수의 법안이 발의 되고 가이드라인도 발표됐지만, 유럽이나 일본과 달리 원론적인 수준이며 아직 인공지능에 특화된 윤리 논의는 구체화되지 못했다.

NIA는 "인공지능에 의해 침해받을 수 있는 개인의 권리를 명확히 분석하고 이런 침해가 일어나지 않도록 조율할 수 있는 안전망을 확보해야 한다"며 "또 사이버 범죄, 불법유해정보의 지능화, 인공지능 기술로 인한 부작용 등을 공유하고 사회적 합의를 거쳐 법제화가 필요하다"고 강조했다.