전세계에 생성형 인공지능(AI) 열풍을 불러일으킨 챗GPT 개발사 오픈AI의 샘 알트만 최고경영자(CEO)의 한 마디가 유럽을 발칵 뒤집어놨다. 공공·민간 영역에서 광범위하게 활용되고 있는 챗GPT의 시장 철수를 언급했기 때문이다.

논란이 증폭되자 알트만은 바로 다음날 자신의 소셜미디어(SNS) X 계정에 “유럽을 떠날 생각은 없다”고 해명했다. 소란이 잦아들긴 했지만 이 해프닝은 유럽의 AI 규제 법안이 AI 기업에 얼마나 치명적인지를 보여줬다.

EU를 필두로 미국, 영국이 잇따라 AI에 대한 규제를 구체화하고 있다. 우리나라를 포함한 주요국은 국가 간 AI 공동 규범을 마련하기 위한 회의 테이블에 일단 참여하면서 각자 손실을 최소화하기 위해 계산기를 두들기고 있다.

주요국의 AI 규제는 국내 기업의 전자기기, 반도체, 자동차 등 수출 전략에 영향을 줄 수 있고 나아가 통상 마찰을 초래할 가능성도 있다. 이에 국내 대형 로펌들은 자체 해외규제 대응 전담 부서나 AI 전문가를 앞세워 해외 동향을 파악하고 기업 자문에 나서고 있다.

8일 서울 강남구 코엑스에서 열린 2023 서울카페쇼에서 챗GPT를 이용한 커피 추출이 시연되고 있다. / 뉴스1

◇ EU, 초강력 AI 규제 법안 발의...美, 中 견제용 행정명령

1~2일(현지시각) 영국 브레츨리 파크에서 열린 1화 AI 안전 정상회의(AI Safety summit)에는 우리나라를 비롯해 미국, 일본, 중국 등 28개국과 EU가 참여했다. 참가국은 AI로 인한 위험을 객관적으로 평가하고 안전하게 활용할 수 있는 방안을 모색하기로 하는 ‘브레츨리 선언’을 채택했다.

국가 간 협력과 별개로 EU, 미국, 영국은 자국에 적용할 규제를 이미 만들었거나 만들고 있다. EU가 2021년 제안한 인공지능법안을 지난 6월 유럽의회가 채택해 현재 유럽집행위원회, 유럽이사회와 논의하는 과정을 진행 중이다. 다만 AI 산업을 육성중인 스페인 등의 반대로 논의가 공회전 하고 있다.

이 법안은 AI 위험을 정도에 따라 ▲허용할 수 없는 정도 ▲고위험 ▲저위험으로 구분해 금지하거나 제한하는 내용을 담고 있다. 허용할 수 없는 정도 위험에는 공공장소에서의 실시간 원격 생체인식 시스템 등이 포함됐다. 법 위반 때는 전세계 매출의 4~7%의 과징금을 부과할 수 있다는 내용도 들어갔다.

이에 질세라 미국 조 바이든 대통령은 지난달 인공지능 개발과 사용에 관한 행정명령에 서명했다. 국가 안보, 경제 안보, 공중 보건 안전에 중대한 위해를 가할 수 있는 AI 모델을 개발하는 기업은 이를 연방정부에 보고하고 안정성 검증 결과를 공유하도록 하는 내용이다.

이광욱 법무법인 화우 파트너변호사(사법연수원 28기)는 “빅테크 기업이 없는 유럽은 자국 산업보호 측면과 권리 침해, 개인정보 보호 관점에서 AI 규제를 도입하는 반면 미국은 AI가 국가안보를 좌우할 미래의 무기가 될 수 있다고 보고 중국을 견제하는 장치로 규제에 접근하는 것으로 보인다”고 말했다.

질병관리청이 인공지능 기반 자동모기분류감시장비로 분석된 데이터를 바탕으로 모기 종류와 개체수를 그래프로 확인하는 모습. / 질병관리청 제공

◇ “AI 규제, 무역기술협정 협정 위배 가능성”... “국내 규제 주목해야”

국내 주력 수출품인 반도체, 스마트폰, 자동차에 점점 더 고도화된 AI 기술이 투입되는 만큼 미국, EU 규제법 적용 대상이 될 가능성이 높다. 고환경 법무법인 광장 변호사는 “EU 법안의 경우 의무를 모두 준수하려면 활용하는 기업 측에서도 상당한 시간과 비용이 들 것”이라면서 “현지화 필요성이 더욱 높아졌다”고 말했다.

이에 국내 로펌들은 국제 규제를 분석하고 대응하는 전담팀에서 AI 규제를 예의주시하고 있다. AI 규제는 단순히 기술 규제를 넘어 미중 패권 싸움이 얽혀있어 경제안보 영역으로 넓게 봐야 한다는 분석이 지배적이다. 태평양은 지난 9월 법무부 국제분쟁대응과장 출신 한창완 변호사를 주축으로 국제규제·분쟁대응연구소를 30여명 규모로 꾸렸다. 광장도 경제안보에 초점을 맞춘 경제안보 태스크포스(TF)를,만들었다.

한창완 태평양 변호사는 AI 규제가 통상마찰로 이어질 수 있다고 분석했다. 한 변호사는 “AI가 탑재된 상품이 WTO(세계무역기구) TBT(무역기술장벽) 협정을 준수했는 지 여부가 문제가 될 수 있다”고 말했다. 비관세 무역조치인 TBT는 WTO 회원국 간 제품에 적용되는 기술규정이 동일해야 한다는 전제가 바탕이 된다.

한 변호사는 “향후 AI에 대한 국제표준이 마련된다면, WTO 회원국은 국내법이 해당 국제표준과 조화될 수 있도록 노력할 필요가 있고, 만약 이를 위반하면 TBT 협정 등 통상규범에 위배될 가능성이 있다”고 했다.

다만 세계적인 빅테크 기업을 보유한 미국이 AI 규제에 적극적으로 나설 가능성은 높지 않고 EU 역시 일부 국가의 반대로 법안이 후퇴할 여지가 남아있다. 민간이 자율규제하도록 하는 방식으로 갈 가능성도 있다. 이에 해외 규제보다 국내 정책에 주목할 필요가 있다는 분석도 나온다.

현재 국회에는 AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안이 계류돼 있다. 이 법안은 EU 규제 법안과 ‘고위험 영역에서 안전성을 확보해야 한다’는 내용이 겹친다. 고위험 영역이란 에너지, 보건의료산업, 의료기기, 원자력시설, 범죄수사·체포 업무에서 생체 정보, 채용이나 대출 심사와 같이 개인이 권리의무에 중대한 영향을 미치는 판단과 평가 목적의 AI 등으로 정의됐다.

이와 별도로 과기부는 한국정보통신기술협회(TTA)와 함께 민간 자율 방식의 AI 신뢰성 검증·인증 체계를 마련하기로 했다. 신뢰성 인증은 AI 제품·서비스를 대상으로 시행하며 이를 기획·개발·운영하는 주체의 신뢰성 확보 역량을 제3의 전문기관이 종합적으로 검증하는 방식이다. 또 AI 관련 법제를 폭넓게 논의하는 인공지능 법제정비단을 운영하고 있다. 여기엔 광장, 율촌, 세종의 전문가가 참여하고 있다.

강신욱 법무법인 세종 ICT그룹장(변호사)은 “기업이 개발·출시한 AI가 신뢰성을 담보하고 있는지, 고위험 AI에 해당하는 지 여부를 예측하기 위해선 TTA의 신뢰성 검증·인증을 받아보는 방법이 유효할 수 있다”고 말했다.