국내 기업들이 올해 인공지능(AI) 도입을 확대하는 가운데 정부가 AI 안전성과 관련 법을 조속히 마련해야 한다는 주장이 나왔다. AI 안전성은 AI가 차별, 편견, 사생활 침해 등의 문제를 일으키지 않고 윤리 기준을 준수하는 것을 의미한다.
전창배 국제인공지능·윤리협회(IAAE) 이사장은 16일 서울 강남구 마산나눔재단 마루180에서 IAAE가 개최한 ‘기업을 위한 AI 윤리와 AI 안전 방향성’ 콘퍼런스에서 “최근 AI가 산업과 민간 전반에 확산되는 중이고, 올해 국내 기업만 해도 AI 도입률이 28%에서 40%까지 늘어날 것으로 전망된다”며 “이 같은 흐름에 따라 각 국의 정부도 AI 윤리 규범 마련에 힘쓰고 있다”고 덧붙였다. 비윤리적인 답변을 내놓는 AI 플랫폼은 시장의 선택을 받지 못할 확률이 높기 때문이다.
전 이사장은 “최근 미국 바이든 행정부는 AI 안전 행정명령을 발효하고 AI 안전 연구소를 설립하는 등 관련 법안 마련 준비에 박차를 가하고 있다”며 “한국 정부도 AI 안전성과 관련된 법안을 미리 만들어 국내 기업들이 대비 할 시간적 여유를 줘야 한다”라고 설명했다.
정부가 기업의 자유로운 활동을 보장할 수 있는 선에서 AI 법안을 마련해야 한다는 의견도 나왔다. 윤창희 한국지능정보사회진흥원(NIA) AI 정책연구팀장은 “현재 AI와 클라우드 기술 수요가 가장 많은 곳 중 하나가 공공기관”이라며 “국민들의 데이터를 가지고 있기에 이를 체계적으로 관리해야 할 프로그램이 필요하다”라고 말했다.
윤 팀장은 이어 “이는 AI가 민감한 개인정보를 다룰 권한이 주어져야 국민들이 만족할 수 있는 신속한 서비스 제공이 가능하다는 의미”라며 “데이터에 대한 AI의 접근 범위를 법으로 일일이 지정하는 것보다는, 취급하는 데이터의 중요도와 유출 시 위험도를 측정할 수 있는 기준을 기업이 자율적으로 만들도록 유도할 수 있다”고 말했다.
기업도 안전한 AI를 만들기 위한 대책을 스스로 마련해 둬야 한다는 의견도 제기됐다. 이화란 네이버 퓨처AI센터 리더는 “AI 개발사가 언어 모델을 학습시켜 더 정확한 답변을 할 수 있도록 하는 것과 동시에 공격적인 질문을 던져 비윤리적이거나 허위 답변을 내놓지 않는지 시험해 볼 수 있다”라며 “이 같은 방식을 통해 기업들이 잠재적인 위험을 미리 확인하면 안전한 AI 플랫폼을 개발할 수 있을 것”이라고 했다.
과학기술정보통신부도 기업들의 활동을 저해하지 않는 AI 관련법을 만들겠다고 약속했다. 엄열 과학기술정보통신부 인공지능기반정책관은 “과기정통부는 AI 발전으로 발생할 수 있는 저작권, 개인정보 문제 등에 초점을 맞춰 법안 마련을 추진 중”이라며 “징벌 위주인 유럽연합(EU) AI 관련법과 달리, 기업들이 지켜야 할 기본적 의무만을 규정하고 자유로운 활동을 보장할 것”이라고 말했다.