과학기술정보통신부가 이달 중 초거대 인공지능(AI) 산업 정책 방향을 발표할 계획인 가운데 관련 기본법 제정 움직임이 빨라지고 있다. ‘인공지능산업 육성·신뢰 기반 조성에 관한 법률(이하 인공지능법)’이 지난달 국회 과학기술정보방송통신위원회 법안심사소위원회를 통과하며 8부 능선을 넘었다. 그러나 해당 법안이 산업 육성에만 무게를 뒀다는 지적이 나오면서 윤리적 관점에서 제고해야 한다는 목소리가 커지고 있다.
13일 과방위에 따르면 법안소위는 지난 3년간 여야 의원들이 개별 발의한 7개 AI 산업 육성 법안을 하나로 묶어 지난달 14일 의결했다. 과방위에 계류된 7개 법안은 ▲인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률(대표발의 이상민) ▲인공지능산업 육성에 관한 법률(양향자) ▲인공지능 기술 기본법(민형배) ▲인공지능 육성 및 신뢰 기반 조성 등에 관한 법률(정필모) ▲인공지능에 관한 법률(이용빈) ▲알고리즘 및 인공지능에 관한 법률(윤영찬) ▲인공지능산업 육성 및 신뢰 확보에 관한 법률(윤두현) 등이었다. 법안소위는 이 중 가장 최근에 발의된 윤두현 국민의힘 의원안을 뼈대로 인공지능법을 통과시켰다.
인공지능법은 과기정통부가 3년마다 AI 기본계획을 수립하고 이를 관장하는 컨트롤타워로 국무총리 산하에 인공지능위원회를 두는 내용을 골자로 한다. AI 기술 발전을 위한 대원칙으로 ‘우선허용 사후규제’ 원칙도 명문화했다. 생명과 안전, 기본권에 중대한 영향을 미칠 우려가 있는 고위험 영역 AI에 대해서는 활용 영역을 설정해 기업 등 사업자에게 신뢰성 확보 조치를 요구하도록 했다. 이 법안은 상반기 중 국회 상임위원회와 법제사법위원회, 본회의를 통과해 입법될 예정이다.
여야는 ‘챗GPT’ 출현을 계기로 글로벌 AI 개발 경쟁이 치열해지는 상황에서 국내 기업들을 적극적으로 육성·지원하자는 목표로 인공지능법을 발의했다. 구체적인 시행령이 나오면 기업들은 조세 및 각종 부담금 감면 혜택을 받을 전망이다. 병합 심의된 7개 법안 중 ‘인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안’을 대표발의한 정필모 더불어민주당 의원은 “최근 챗GPT가 최첨단 기술 수준을 선보이며 전 세계적인 충격을 던졌다”며 “국내 AI 기술 발전 기반과 국가 역량 집중투자 등을 위한 제도 마련을 위해 AI 법 제정이 시급하다”고 취지를 설명했다.
기술 개발 속도에 발맞춘 산업 육성안의 등장은 고무적이지만, 인권 침해 등 역기능에 대비한 규제 논의는 여전히 과거에 머물러 있다는 우려가 나온다. 4차산업혁명위원회가 지난 2020년 ▲인권 보장 ▲프라이버시 보호 ▲투명성 등 인간성을 바탕으로 AI 발전을 논의하자며 의결한 ‘AI 윤리기준’에서 법안이 크게 벗어나지 못한다는 것이다. 당시 과기정통부는 “10대 원칙을 두고 세부 규범이 유연하게 발전할 수 있는 기반을 만들었다”고 밝혔지만, 해당 기준은 자율 규범 수준에 그쳐 한계가 명확하다는 비판을 받았다.
인공지능법은 특히 ‘고위험 영역 AI’의 범위를 주요 국가보다 좁게 설정하고 있다. 일례로 현재 법안은 생체 정보를 분석·활용하는 AI 중 범죄 수사나 체포 업무에 쓰이는 AI만 고위험 영역으로 분류하고 있다. 반면 유럽연합(EU)이 도입을 검토 중인 관련 법안은 자연인의 실시간·사후적 원격 생체 신원확인에 사용되는 AI까지 고위험 영역으로 분류한다. 공공장소에서 실시간 원격으로 생체인식 정보를 활용한 신원을 확인하는 AI는 아예 사용을 금지한다.
유럽의회가 앞서 지난 2021년 결의안을 통해 공개적으로 접근 가능한 공간에서 보행, 지문, DNA, 음성 및 기타 생체인식 및 행동신호와 같은 인간 특성의 자동분석 사용 및 인식을 영구적으로 금지할 것을 요구한 결과다. 같은 해 UN인권최고대표는 각국에 해당 기술의 사용 중지를 권고했고, 미국 캘리포니아주 등에서는 경찰 등 공공기관의 얼굴인식 기술 사용 금지 법률을 제정했다. 우리나라에서는 국가인권위원회가 지난 1월 같은 내용을 정부에 권고했다.
박소현 국회입법조사처 입법조사관은 “AI 시스템에 제기되고 있는 우려들에도 불구하고 그 효용성·유용성에만 경도돼 이에 대한 보호장치나 규제가 존재하지 않는 상태에서 무분별한 활용이 이뤄진다면 그로 인한 인권 및 기본권 침해의 문제는 우리가 지금 생각할 수 있는 수준 이상이 될 수도 있다”며 “우리나라의 경우 과기정통부가 마련한 AI 윤리기준의 10대 원칙이 있으나, 이것만으로는 형사사법영역에서의 AI 활용으로 제기될 수 있는 문제들을 효과적으로 대응하기에는 역부족인 것으로 보인다”고 했다.
고위험 영역 AI의 신뢰성을 확보하기 위해 인공지능법이 사업자에 요구하는 조치가 ‘보여주기에 불과하다’는 주장도 일각에서 나온다. 장여경 정보인권연구소 상임이사는 지난 9일 시민단체 등과 연 기자회견에서 “EU 법안은 AI를 개발하고 활용하는 기업들이 ▲위험 평가 및 완화 의무 ▲출시 전 검사 및 사후 모니터링 의무 ▲개발·운영 과정의 문서화·기록 의무 ▲데이터 편향·오류를 방지할 의무 ▲사후 설명 의무 등을 지켜야 한다고 세세하게 규정한다”며 “국내 법안엔 고지 의무와 사업자 책무 등 단편적이고 형식적인 규율만 담긴 데다 처벌 규정도 없다. 법이 만들어진다 해도 실질적인 위험 방지 장치 역할을 할 수 있을지 의문이다”라고 했다.