인공지능(AI) 산업 규제와 진흥을 목표로 한 'AI 기본법'이 22일부터 전면 시행됐습니다. 국내 AI 사업자들은 이날부터 챗GPT·제미나이 등 생성형 AI를 활용해 만든 콘텐츠에 'AI 사용' 사실을 알리는 워터마크를 표기해야 합니다. 정부는 현장의 혼란을 최소화하기 위해 1년간 규제를 유예하기로 했지만, 기업들은 세계 최초로 도입된 AI 기본법이 국내 AI 산업 발전을 저해할까봐 걱정하고 있습니다. 기업들은 AI 기본법의 영향을 파악하고 혹시 모를 부작용을 막기 위해 대응책 마련에 고심하는 모습입니다.
AI 기본법은 국내 AI 산업의 육성과 안전한 활용 기반을 조성하기 위해 지난해 1월 21일에 제정된 법률입니다. AI 산업에 대한 지원과 제재 방안을 포괄적으로 담은 AI 법 제정은 유럽연합(EU)에 이어 두 번째이지만, 전면 시행에 들어가는 것은 한국이 처음입니다. 과학기술정보통신부는 "법 조항의 약 80%를 산업 진흥에 초점을 맞췄다"고 강조했지만, 기업들은 나머지 20%에 해당하는 규제를 주목하고 있습니다.
AI 기본법에서 마련한 규제는 위험한 AI의 활용을 예방하는 데 방점을 두고 있습니다. AI 생성물에 워터마크를 표시하는 투명성 확보 의무가 대표적입니다. 실제인지 구분하기 어려운 딥페이크 생성물에는 워터마크를 통해 AI를 활용했다는 사실을 명확하게 고지하도록 했습니다. 애니메이션이나 웹툰처럼 식별이 쉬운 콘텐츠는 눈에 보이지 않는 디지털 워터마크를 사용해도 됩니다. 영화, 드라마, 미술, 문학 등의 창작물도 작품의 몰입을 방해하지 않는 범위 안에서 AI 활용 사실을 표기할 수 있습니다.
워터마크 표기 적용 대상은 개인이 아니라 사업자로 제한됩니다. AI 생성물을 콘텐츠 제작에 활용하거나 소셜미디어(SNS)에 올리는 이용자는 규제 대상이 아니라는 의미입니다. AI를 활용해 웹툰을 그리는 작가, AI의 도움을 받아 유튜브 '숏츠'나 인스타그램 '릴스'를 제작해 올리는 인플루언서는 사업자가 아닌 이용자에 해당하기 때문에 의무가 적용되지 않습니다.
AI 기본법은 '고영향 AI'도 규제 대상으로 지정했습니다. 정부는 고영향 AI를 '사람의 생명과 안전, 기본권의 보호에 중대한 영향을 미치는 AI'로 정의하고 에너지·의료·채용·원자력·범죄수사·교통·교육 등 10개 영역을 제시했습니다. '완전 자율주행 단계인 레벨4 이상 차량'이 대표적인 고영향 AI의 예시로 꼽힙니다. 최종 의사 결정 과정에 사람이 개입했는지 여부도 고영향 AI의 판단 기준입니다. 일례로 채용 과정에서 AI가 인재를 추천했더라도 인사팀이 최종 판단을 내리면 통제 가능한 것으로 판단해 고영향 AI 대상에서 제외됩니다.
AI 사업자가 AI 활용 사실 사전 고지 의무 등을 위반할 경우 최대 3000만원의 과태료가 부과됩니다. 다만 1년 이상의 계도기간 운영 방침에 따라 사실조사와 과태료 부과도 유예될 예정입니다.
국내 기업들은 AI 기본법 시행에 발빠르게 대응하고 있습니다. 유예 기간이 있지만, 혼선을 최소화하기 위해 선제적으로 대비하는 데 낫다는 이유에서입니다.
AI로 제작된 콘텐츠를 유통하는 카카오는 서비스 약관을 개정해 오는 2월 5일부터 적용합니다. 새로운 약관에는 '회사가 제공하는 서비스에는 AI에 기반해 운용되는 서비스가 포함될 수 있으며, AI에 의해 생성된 결과물을 제공할 경우에는 관련 법에 따라 고지·표시한다'는 내용의 조항을 추가했습니다. 카카오는 AI 에이전트 카나나 템플릿 중 'AI 템플릿'으로 생성한 모든 영상에 '카나나'라고 적힌 가시적 워터마크를 삽입하고 있습니다.
국내 게임사들은 1년의 유예기간 동안 과기정통부의 세부 가이드라인에 따라 대응에 나선다는 방침입니다. 크래프톤을 포함한 일부 게임사의 경우 EU가 단계적으로 시행 중인 AI법 대응 차원에서 이미 글로벌 시장에 서비스 중인 게임의 AI 사용을 고지 중입니다. 회사 관계자는 "'배틀그라운드'와 '인조이' 등은 게임 플랫폼 스팀을 통해 AI 사용 여부를 표기하고 있다"고 했습니다.
다만 스타트업 관계자와 일부 IT 기업은 여전히 AI 기본법에 대해 "모순이 많아서 혼란스럽다"는 입장입니다. 고영향 AI의 기준이 모호해 기업이 스스로 고영향 AI에 해당하는지 판단하기 어렵다는 의견이 대표적입니다. 나중에 법적 분쟁에 휘말렸을 때 고영향 AI 해당 여부가 법원의 판단에 좌우될 수 있어 리스크가 크다는 것입니다.
스타트업얼라이언스가 지난해 말 국내 AI 스타트업 101사를 대상으로 실시한 설문조사에서 98%가 'AI 기본법 시행에 대응 체계를 갖추지 못했다'고 답했습니다. 최지영 코리아스타트업포럼 상임이사는 "스타트업은 규제 변화에 대응할 인력과 자원이 충분하지 않은 경우가 많다"며 "AI 기본법이 현장에서 제대로 작동하려면 합리적 제도, 명확한 기준과 해석, 준수 비용을 낮추는 지원 인프라가 필요하다"고 말했습니다.
AI 기본법으로는 딥페이크 범죄 대응이 제한적이라는 지적도 나옵니다. 최근 아동 딥페이크 생성으로 논란이 된 xAI의 '그록'처럼 딥페이크 생성·유통은 주로 해외 플랫폼에서 이뤄지는데, 해외 AI 기업의 제재가 어려운 실정입니다. 정부는 국내 매출 100억원, 글로벌 매출 1조원, 일평균 이용자 100만명 이상 중 하나라도 해당하는 해외 사업자는 국내 대리인을 지정하도록 했는데, 이 기준을 충족하는 기업은 구글, 오픈AI 등을 비롯해 극소수입니다.
전문가들은 정부가 규제 유예기간에 업계와 적극적으로 소통해 합리적인 가이드라인을 마련해야 한다고 조언했습니다. 최병호 고려대 휴먼 인스파이어드 AI연구원 교수는 "정부는 1년간 산업계 의견을 최대한 많이 수렴해 세부 가이드라인을 세워야 한다"라며 "법이 AI 산업 변화 속도를 따라가지 못하기 때문에 계도기간이 끝난 뒤에도 주기적으로 정부와 이해관계자들이 모여 법을 개정하고 시행하는 작업이 필요하다"고 말했습니다.