지난 9일 서울 여의도 63컨벤션센터에서 챗GPT 개발사 오픈AI와 '파이어사이드 챗 위드 오픈AI'(Fireside Chat with OpenAI)를 개최됐다. 사진은 샘 올트먼 오픈AI 대표. /소프트뱅크벤처스 제공

오픈AI가 개발한 챗GPT 등 생성형 인공지능(AI)을 활용할 때 비공개 정보나 개인 정보를 입력하면 안 되고, 연계·확장 프로그램을 활용할 때에는 보안 취약 여부 등 안전성을 확인해야 한다. 로그인 계정 보안설정도 강화해야 한다.

국가정보원은 29일 이같은 생성형 AI 기술을 안전하게 이용하기 위한 보안 가이드라인을 마련했다고 밝혔다. 국정원은 생성형 AI를 활용하는 과정에서 업무상 비밀과 개인정보가 유출되거나 가짜뉴스·비윤리적 자료가 생성되는 등 기술 악용 우려가 제기되자 지난 4월 국가보안기술연구소와 함께 가이드라인 제정에 착수했다. 가이드라인에는 산업계와 학계 전문가 의견을 반영했다.

생성형 AI 보안 가이드라인은 서비스 접속부터 질의, 결과물 활용 등 과정 전반에서 지켜야 할 보안 지침을 단계별로 안내하는 방식으로 작성됐다. 보안 위협 사례, 기술 사용 가이드라인, 국가·공공기관 보안 대책 등이 담겼다. 생성물 정확성·윤리성·적합성을 검증하고, 활용할 때 지적 재산권·저작권 위반 여부를 확인하라는 내용도 포함됐다.

국정원은 국가 공공기관과 지자체 외에 교육부와 협조해 이번 보안 가이드라인을 국내 420여개 국·공·사립대학 등에 배포할 계획이다. AI가 대학 등 일선 연구·교육현장에서 적극 활용되고 있지만 뚜렷한 보안대책이 없었기 때문이다. 또 국정원 국가사이버안보센터 홈페이지(ncsc.go.kr)에 가이드라인을 게재해 국민들이 참고할 수 있도록 했다.