미국 OpenAI의 챗GPT 서비스 화면. /AP

이탈리아가 대화형 인공지능(AI) ‘챗GPT’ 접속을 차단하고 개발사인 미국의 오픈AI에 개선안을 요구한 가운데, 유럽에서 AI 관련 공동 정책을 논의하기 위한 챗GPT 전담 태스크포스(TF)가 출범했다. 미국은 생성형 AI 규제 입법안 마련에 돌입했고, 중국도 생성형 AI 서비스 규제 초안을 공개했다. 세계 각국이 급격히 확산하고 있는 생성형 AI 서비스의 부작용을 보완하기 위한 제도 마련에 속도를 내면서 한국 정부도 관련 가이드라인을 마련한다.

◇ 유럽, 규제 논의 확산… 이탈리아는 챗GPT 차단 해제 조건 제시

14일(현지 시각) 로이터통신에 따르면, 유럽연합(EU)의 데이터 보호 규정을 감독하는 기구인 유럽정보보호이사회(EDPB)는 챗GPT 전담 TF를 구성하고 본격적으로 정책 논의에 착수했다. 유럽 국가들이 저마다 챗GPT 규제를 검토하고 나서자 EU 회원국의 입장을 조율하고 전반적인 정책을 논의하겠다는 취지다.

이탈리아 당국은 지난달 30일 서방 국가 중 처음으로 챗GPT 사용을 금지하고 오픈AI의 유럽 개인정보보호법 위반 여부 조사에 나섰다. 챗GPT에선 일부 이용자의 프로그램 사용 기록이나 개인정보가 다른 사용자에게 노출되는 등의 오류가 여러 차례 발생해왔다. 또 AI 학습을 위해 인터넷에 공개된 정보를 작성자 허락 없이 사용해 논란을 빚고 있다.

이에 이탈리아 정보보호청은 지난 12일 오픈AI에 진상조사와 별개로 서비스 차단 해제 조건을 구체적으로 제시했다. 우선 챗GPT가 사용하는 논리 배열과 데이터 처리 방법을 사용자가 확인할수 있게끔 오픈AI 웹사이트에 게시할 것을 요구했다. 또 서비스 이용자가 아니더라도 챗GPT가 부정확하게 생성한 개인 정보를 정정하거나 삭제할 수 있도록 하는 도구를 제공하라고 했다. 아울러 13세 미만은 서비스에 접근하지 못하도록 하는 연령 확인 시스템 도입을 요구했다. 보호청은 오는 30일까지 오픈AI가 내놓는 조치를 토대로 접속 금지 해제 여부를 검토한다는 방침이다.

◇ 美·EU, AI 규제안 마련 움직임… 中은 사전 안전 평가

이탈리아에 이어 미국, 스페인, 독일, 프랑스, 캐나다, 중국 등도 챗GPT의 개인 정보 무단 사용 문제를 두고 구체적인 논의를 이어가고 있다. 이날 척 슈머 미국 민주당 상원 원내대표는 성명을 내고 “미국이 이 혁신적인 기술을 발전시키고 선도할 수 있게 하는 동시에 재앙적인 피해를 방지하도록 하기 위해 새 감독체계와 관련한 초안을 작성해 회람했다”고 밝혔다. 초안에는 AI 기업이 새 기술을 출시할 때 독립적인 전문가의 검사를 거치고, 사용자가 정보 결과에 대해 접근권을 갖도록 하는 내용이 담겼다.

중국은 생성형 AI 서비스 관리 방안 초안을 발표하고, 기업이 AI 서비스를 출시하기에 앞서 제품의 안전성을 평가해 당국에 제출하도록 했다. EU도 올해 내 통과를 목표로 ‘AI 법안’을 정비 중이다. 캐나다 당국은 챗GPT의 개인 정보 수집·사용 절차를 문제 삼고 오픈AI에 대해 조사하고 있다.

◇ “실태 점검 후 개인정보 중심 설계 등 대책 마련해야”

한국에서도 각종 정보 유출 우려 문제가 대두되면서 생성형 AI 관련 제도적 안전장치 마련 필요성이 제기됐다. 생성형 AI 서비스 부작용이 단순 정보 유출 차원을 넘어 잠재적으로 국가안보에도 영향을 미칠 수 있는 만큼 이를 관리하기 위한 새로운 규정이 필요하다는 지적이다. 이에 개인정보보호위원회는 올해 6월까지 ‘AI 데이터 안전 활용 정책방향’을 수립하겠다는 계획을 내놨다.

당장 일부 기업들은 자체적으로 사내 챗GPT 사용을 제한하거나 사용 주의 공지를 내리고 있다. 직원들이 회사 내부 정보를 포함한 내용을 챗GPT에 입력해 자칫 영업 기밀이 새어나갈 수 있다는 우려에서다. 삼성전자(005930) 반도체(DS) 부문은 챗GPT 사용 주의를 환기하는 메시지를 사내 게시판에 공지하고, 챗GPT 업로드 용량을 제한하는 조처를 했다. 삼성전자 디바이스경험(DX) 부문은 이달 초 임직원을 상대로 챗GPT 사용 설문조사를 진행하고 사용 지침을 마련 중이다. SK하이닉스(000660)는 사내망을 통한 챗GPT 사용을 원칙적으로 금지하고 꼭 필요할 경우 사전 검토를 받도록 했다. LG전자(066570)도 챗GPT 사용 주의점을 직원들에게 공지했다.

개인정보위는 이날 올해 6월까지 데이터 수집, AI 학습, 서비스 제공 등 전 과정에서 지켜야 할 개인정보 보호원칙과 데이터 처리기준을 제시한다는 방침을 내놨다. AI가 학습을 위해 정보를 무분별하게 사용하는 문제와 관련해서도 명확한 원칙을 세울 계획이다.

최경진 한국인공지능법학회 회장(가천대 법학과 교수)은 “GPT는 전 세계적인 경제·안보 환경을 바꿀 만한 파급력이 있기 때문에 업계뿐 아니라 정부 기관과 국회, 학계 등에서 모두 관심을 두고 어떤 법적 문제가 있는지 살펴봐야 한다”며 “개인정보 침해 문제에 대해 실태 점검을 하고 그에 따라 생성형 AI 설계 단계부터 개인정보 중심 설계 등을 유도하는 등의 적절한 대책을 마련해야 한다”고 말했다. 다만 최 회장은 “선제적으로 과도하게 규제하면 오히려 생성형 AI 산업이 제대로 뿌리를 못 내릴 수 있어 우선 꾸준한 모니터링을 통해 피해 사례를 추적·수집해 나가야한다”고 말했다.