이성엽 고려대 기술경영전문대학원 교수

생성형 인공지능(AI)인 오픈AI의 챗GPT를 시작으로 AI가 일상생활에 파고들면서 전 세계 규제당국도 AI에 의한 위험을 통제하기 위한 규제를 본격화하고 있다. 잘 알려진 대로 유럽연합(EU)는 2021년 4월 EU 집행위원회에서 AI 법안의 초안을 발표했고, 2022년 12월에는 각료 이사회에서 수정안을 발표했다. 챗GPT가 등장한 후인 지난 5월에는 의회가 수정안을 발표했다. 의회 수정안에는 챗GPT로 대표되는 생성형 AI 모델에 대한 규제가 추가됐다.

파운데이션 모델(foundation model)을 광범위한 데이터 규모로 학습되고, 일반적 결과물(generality of output)을 제공하기 위해 설계됐고, 광범위한 작업에 적용할 수 있는 AI 시스템으로 정의하고 파운데이션 모델 공급자는 모델의 위험관리, 신뢰성 관리를 위한 검증, 자신의 모델을 공급받아 활용하는 하위 사업자의 서비스 내용까지 고려한 모델에 대한 기술문서와 지침의 작성, 제공 등의 의무가 부과된다.

다양한 수준의 자율성을 가지고 복잡한 텍스트, 이미지, 음성 또는 동영상과 같은 콘텐츠를 생성하기 위한 목적의 AI 시스템으로 정의된 생성형 AI 파운데이션 모델 공급자는 이용자에게 AI 시스템 활용 사실을 알려야 한다. 위법한 콘텐츠 생성을 방지할 수 있도록 모델을 설계·개발해야 하며 저작권에 의해 보호되는 학습 데이터를 이용할 경우 이에 대한 정보를 문서화해 공개해야 한다. EU 법률과 표현의 자유 등 기본권에 따라 AI 시스템을 설계 및 개발할 의무를 부과하고 있다.

자국의 AI 산업 혁신을 위해 아직 이렇다 할 규제를 도입하고 있지 않은 미국은 행정부에서 지난해 10월 AI 권리장전(Blueprint for AI Bill of Rights), 연방의회 차원에서 작년 3월 알고리즘 책임법(Algorithmic Accountability Act of 2022)을 수정 발의했다. 다만 이는 챗GPT 서비스 이전의 규제안으로 아직 생성형 AI에 대한 규제는 아직 가시화되지 않고 있다.

AI 권리장전은 백악관 과학기술정책실에서 작성한 것으로 미국민의 보호를 목적으로 자동화시스템이 준수해야 할 5대 원칙이다. 안전하고 효과적인 시스템, 알고리즘의 차별로부터 보호, 개인정보 보호, 고지와 설명, 대인(對人) 서비스 제공 선언을 제시하고 있다. 적용 범위와 관련해서는 미국 대중의 권리, 기회 또는 중요한 자원이나 서비스에 대한 액세스에 의미 있는 영향을 미칠 가능성이 있는 ‘자동화시스템’에 적용된다. 자동화시스템은 매우 광범위하게 정의되고 있어 본질적으로 계산을 사용해 결정을 내리는 모든 시스템을 의미한다. 하지만 일반적으로 산업에서 활용되는 AI 시스템 등에 대해서는 적용되지 않는다는 점을 분명히 하고 있다.

그러나 권리장전은 법적 구속력이 없는 입법 지침에 불과하다. 알고리즘 책임 법안은 고용, 금융 서비스, 의료, 주택 및 법률 서비스를 포함한 다양한 부문에서 개인의 생활에 영향을 미치는 중요한 결정(critical decisions)을 내리는 “자동화된 의사 결정 시스템”에 대한 영향 평가를 수행하도록 요구하고 있다. 영향 평가 문서는 연방거래위원회에 제출해야 한다. 영향 평가를 통해 중대한 부정적 영향을 신속히 제거하거나 완화하는 조치를 의무화하고 있다.

미국과 AI 분야 경쟁을 하고 있는 중국은 생성형 인공지능 서비스 관리 잠정 방법을 올해 4월 발의해서 지난 15일부터 시행했다. 세계 최초로 법적 규제를 시행한 것이다. 생성형 AI의 건전한 발전, 표준화된 적용 촉진, 국가 안보와 사회공공이익 수호, 권익 보호를 목적으로 제시하고 있으며, 생성형 AI 서비스 제공, 이용 관련 관리 감독 체계, 기술 개발 촉진, 데이터 처리, 데이터 라벨링 및 학습 규제, 차별 방지, 개인정보 및 미성년자 보호, 콘텐츠 규제, 보안 평가 등 24개 조항으로 구성돼 있다.

이 가운데 데이터 규제를 보면 합법적 출처를 가진 데이터 및 기반 모델 사용, 타인의 지적재산권 침해 불가, 개인정보의 경우 당사자의 동의를 얻거나 법률 및 행정 법규의 규정에 부합, 사이버보안법, 데이터보안법, 개인정보보호법 및 기타 유관 법령 및 유관 부처의 관련 감독 요구 사항 준수 등이 규정돼 있다.

콘텐츠 규제와 관련해서 보면, 사회주의 핵심 가치의 반영을 위해 국가권력 전복, 사회주의 체제 전복, 국가 분열 선동, 민족 단결 저해, 테러 조장, 극단주의, 인종 증오와 차별, 폭력, 음란 및 허위 정보, 경제 및 사회 질서 교란 위험이 있는 내용을 포함하는 것을 금지하고 있다. 또 알고리즘 설계 및 훈련, 데이터 선택, 모델 생성 및 업그레이드, 서비스 제공 등의 과정에서 인종, 민족, 신앙, 국적, 지역, 성별, 연령, 직업 등에 대한 차별을 방지할 의무를 부과하고 있다.

미국과 중국은 가장 대비되는 AI 규제를 도입하거나 할 계획이다. 미국이 자국 AI 산업의 진흥을 위해 규제를 제한하고 있는 것과 달리 중국은 생성형 AI에 대해 “사회주의 핵심가치의 반영”이라는 목표하에 콘텐츠 규제, 차별 규제, 저작권, 초상권, 명예권, 개인정보 보호 등 광범위한 규제를 도입하고 있다. 하지만 양자 모두 기술 패권 전쟁에서 승리하기 위해 보안(security)을 강조하고 있는 점은 동일하다. 경제 산업 안보, 국가 안보 차원에서 AI 규제를 다루고 있다는 것이다.

미국과 중국 모두 규제의 대상에서 대중이 아닌 일반 산업 등에 서 활용되는 AI에 대해서는 규제를 적용하지 않는다. 반면 EU는 AI 일반에 대해 규제를 도입하고 있고, 동시에 리스크 별로 차등화된 규제 방식을 채택하고 있다. 그 목표도 프라이버시 등 기본권 보장이 우선하고 있다는 점에서 미국, 중국과는 다른 접근 방식을 채택하고 있다.

한국에서는 AI 산업 진흥과 규제의 조화를 목표로 “인공지능 산업 육성 및 신뢰 기반 조성에 관한 법률 제정안”이 국회에서 발의되어 논의 중이다. 해당 법안은 신산업 분야 혁신을 도모하기 위해 우선 허용·사후 규제라는 네거티브 규제 원칙을 선언한다. 동시에 고위험 AI에 대한 사전 고지 의무, 사업자의 책무 및 신뢰성 검‧인증 등을 통해 AI로 인한 피해나 위험성을 사전에 방지하고 있다.

아직 생성형 AI에 대한 규제 원칙은 포함되어 있지 않은데, 아직 규제 논의가 진행되고 있는 미국 등 주요국의 선례를 참고하되 충분한 시간을 두고 한국의 규제 모델을 고민할 필요가 있다. EU와 달리 초거대 AI 모델을 보유하고 있는 한국으로서는 규제의 역차별의 문제, AI 산업 경쟁력, 창작자와 이용자 보호 등 여러 요소를 종합적으로 고려한 묘안을 찾아야 한다.

이성엽 고려대 기술경영전문대학원 교수·기술법정책센터 센터장