24일 서울 중구 한국지능정보사회진흥원(NIA) 서울사무소에서 과학기술정보통신부 주최로 'AI 기본법 시행 대비 설명회'가 열렸다./심민관 기자

"AI 기본법 규제 대상인 고영향 인공지능(AI)을 (시행령을 통해) 에너지, 보건·의료 등 10개 영역으로 규정하고 있다. 정부는 고영향 AI에 대한 법 조항을 엄격히 해석해서 최소한의 규제만 할 방침이다."

과학기술정보통신부는 24일 서울 중구 한국지능정보사회진흥원(NIA) 서울사무소에서 열린 'AI 기본법 시행령 시행 대비 설명회'에서 이같이 밝혔다. 한국은 내년 1월 22일 AI 기본법을 시행할 예정으로, 세계 최초의 AI 법 시행 국가가 된다.

이진수 과학기술정보통신부 인공지능정책국장은 "최소한의 규제를 위해 최소 1년 이상 규제 유예를 하겠다고 거듭 강조해 왔다"면서 "최소 1년은 유럽연합(EU)이나 해외 동향과 글로벌 기술 발전 속도를 고려한 것이다. 유예 기간을 유연하게 연장하는 방안도 열어뒀다"고 했다.

고영향 AI 사업자로 분류되면 강도높은 규제를 받는다. AI 기본법 제34조에 따라 고영향 AI 사업자는 위험 관리 방안 수립, 결과 도출 기준 설명 의무, 사람의 관리와 감독, 관련 기록의 문서화와 보관 등 의무 이행 대상이 된다. 중소기업이나 스타트업의 경우 고영향 AI 사업자로 분류될 경우 부담이 커질 수밖에 없다. 정부가 고영향 AI 사업자에 대한 해석을 엄격히 해 최소한의 규제만 예고한 배경이다.

김국현 과기정통부 인공지능안전신뢰정책과장은 "고영향 AI에 대한 기준은 고정된 게 아니라, 기술 발전이나 사회적 동향·흐름에 따라 추후 검토해야될 사항이라 본다"며 "관계부처와 산업계 의견을 반영해 구체화해 나갈 것이며, 인공지능안전신뢰지원데스크(가칭)를 통해 의견을 수렴하고 관련 내용을 공유해 갈 것"이라고 했다.

인공지능안전신뢰지원데스크는 과기정통부가 AI 기본법 시행 후 혼란을 줄이기 위한 지원책의 일환으로 설치될 예정이다. 김 과장은 "법령 제정 작업에 참여했던 NIA, 한국정보통신기술협회(TTA) 등 기관과 법률 전문가들이 함께 데스크 형태로 운영할 예정"이라며 "홈페이지와 질의응답(FAQ) 등을 통해 기업들의 문의에 대응하겠다"고 했다.

그동안 업계는 AI 기본법 시행과 관련해 고영향 AI에 대한 모호한 정의를 문제 삼아왔다. AI 기본법 제2조에서 고영향 AI는 '사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템'이라고 규정하고 있다. 정부는 시행령을 통해 에너지, 보건·의료, 교통, 교육 등 10개 특정 영역에서 중대하고 위험한 영향을 줄 수 있는 경우로 기준을 세웠다. 하지만 어디까지가 중대한 영향인지, 어떤 게 위험을 초래할 우려가 있는 건지 기준이 모호하다는 비판이 적지 않다. EU가 AI를 '저위험'부터 '제한적 위험' '고위험' '수용 불가능' 4가지로 세세하게 구분해 규제하는 법안을 만든 것과는 대조적이다.

과기정통부는 고영향 AI 사업자인지 여부는 사업자의 요청이 있으면 30일 이내 회신해 줄 것이라고 밝혔다. 심지섭 과기정통부 인공지능안전신뢰정책과 사무관은 "기업이 자사 서비스가 고영향 AI인지 확인해 달라고 정부에 요청할 경우, 과기정통부는 최대 30일 이내에 답을 줄 것"이라며 "해당 서비스나 상품이 너무 복잡해서 판단이 어려운 경우 30일 연장할 수 있는데 60일까지면 산업계에 부담이 될 수 있어서 서면으로 연장 사유 등에 대해 구체적으로 답변하도록 할 것"이라고 했다. 또한 "고영향 AI 사업자로 분류될 경우 어떤 의무를 지는지도 안내해 줄 것"이라고 덧붙였다.

고영향 AI 사업자로 분류되더라도 이에 대한 최종 판단 권한은 법원에 있다는 이야기도 나왔다. 법무법인 화우의 여현동 변호사는 "과기정통부가 고영향 AI 사업자인지 여부에 대해 답변해야 할 의무가 있지만 (분쟁 발생 시) 이에 대한 최종 판단은 법원이 해야 한다"라고 했다.

또한, 과기정통부는 AI 기본법 제32조에 따라 안전성 확보 의무를 져야 하는 AI를 '누적 연산량이 10의 26제곱플롭스(FLOPs) 이상인 AI'로 대상을 좁혔다. 국내에서 이러한 규모의 연산량을 기록한 AI 파운데이션 모델은 없는 것으로 알려져 있다. 사실상 국내 기업들은 안전성 확보 의무 적용 대상에서 빠질 수 있다. 하지만 업계에선 딥시크 사례 처럼 기술 발전을 통해 연산량이 적은 중소형 AI 모델이라도 성능이 높아질 수 있기 때문에 추후 시행령 개정을 통해 국내 기업들도 안정성 확보 의무 적용 대상에 지정될 가능성을 배제하진 않고 있다.

심지섭 사무관은 "지금은 누적 연산량의 수치 완화나 대상 확대는 고려하지 않고 있다"면서 "다만 누적 연산량 외에 다른 합리적인 판단 방법이 세계적인 표준으로 확정되면 우리 법에도 반영하는 것을 검토할 예정"이라고 했다.