27일 서울 중구 프레지던트 호텔에서 ‘2024년 사이버보안 정책 포럼’ 토론회가 개최됐다./김수정 기자

“사이버보안은 창과 방패의 대결이다. 어떠한 기술로도 100% 사이버 공격을 막을 방법은 없다. 따라서 전문가들은 사이버 공격이 일어나더라도 피해 양상을 조금씩 줄이는 방향으로 연구하고 있다.”

최대선 숭실대 소프트웨어학부 교수는 27일 서울 중구 프레지던트 호텔에서 열린 ‘2024년 사이버보안 정책 포럼’ 토론회에서 이같이 말했다. 이번 토론회는 사이버보안 전문가들이 급속한 디지털 신기술 발전과 이로 인한 위협으로부터 모든 영역이 안전한 디지털 일상을 영위할 수 있는 방향을 모색하기 위해 마련됐다.

지펭 카이 조지아주립대 교수는 “오늘날 생성형 인공지능(AI)은 고급모델을 사용한 대규모 데이터셋 패턴을 기반으로 인간이 만든 것과 같은 텍스트, 이미지, 오디오, 비디오를 생성한다”며 “AI의 여러 이점에도 불구하고 생성형 AI는 윤리적 사용에 관한 과제를 제기하고 있다”고 말했다. 이어 “사물인터넷(IoT)의 경우 기기 간 상호연결이란 특성으로 인해 데이터 프라이버시 등 개인정보 문제가 발생하고 있다”고 덧붙였다.

최근 늘어나는 AI 관련 사이버공격에 관한 다양한 제언이 제시됐다. 최 교수는 “AI의 악의적 사용에 대응하는 방안으로 입력된 프롬프트(명령어)의 유해성을 평가해 사전에 탐지하거나 생성된 콘텐츠의 유해성을 후속 검열해 사후 평가를 할 수 있다”며 “유해, 위험 정보 생성 방지 기법을 우회하는 탈옥을 활용해 막혔던 유해 콘텐츠 생성 쿼리를 결과가 나오도록 챗GPT가 바꿀 수 있다”고 말했다.

최 교수는 “최근 자율적으로 학습해 진화하는 AI로 인한 사이버공격에 대한 통제력 상실도 문제로 대두되고 있다”며 “이에 대응하기 위해서는 모든 고위험 AI 시스템에 긴급 중지 기능을 내장하거나 AI가 비합리적 행동을 하기 않도록 위험성이 높은 학습 내용을 제거해 안전성을 확보할 수 있다”고 말했다.

전문가들은 올해 사이버보안 화두로 AI를 공통으로 꼽았다. 정현철 정보통신기획평가원 PM은 “AI로 인한 사이버 위협이 대중화되고 있는데 챗GPT와 같은 생성형 AI가 등장하기 전과 이후의 사이버보안은 확연히 다르다”며 “생성형 AI의 등장은 해킹의 대중화를 만들었는데, 과거에는 큰 비용이 드는 보이스피싱도 이제는 챗GPT로 쉽게 접근할 수 있다”고 지적했다.

이기주 CISO협의회장는 “올해 AI와 관련해 너무 많은 용어가 등장하다 보니 일반 국민도 그렇고 현장에서 업무를 담당하는 사람들도 어떤 개념이 상위인지 혼란스러워하는 경향이 있다”며 “이에 AI의 불안정성으로 인해 생겨날 수 있는 위험들을 리스트업하고 이를 어떻게 대응하고 정부 관계기관이 어떤 준비를 하는지 정리해 발표하는 것이 바람직하다”고 말했다.

내년 정부가 핵심적으로 추진해야 할 사이버보안 의제로는 기술 확보가 필요하다는 제언이 나왔다. 정 PM은 “기술 확보에 대한 지원이 강화해야 하는데, 기술 없이 사이버보안 산업이 성장하기 어렵다”며 “최근에 여러 신기술이 등장하고 있어 패러다임이 변하고 있는데, 이에 맞춰 기술이 확보돼야 산업이 커지고 좋은 인력도 사이버보안 분야로 들어올 수 있다”고 말했다.

조영철 한국정보보호산업협회 회장은 “사이버보안에 관한 국내 파이를 늘리고 최고경영자(CEO)들의 투자를 늘리기 위해서는 관련 기술에 대한 인식 수준을 높여야 한다”며 “개인정보보호 관리체계 인증(ISMS-P) 제도 활성화할 필요가 있으며 현재의 공시제도를 활용해 제로트러스트 네트워크 보안 전략을 기업에 정착하도록 할 수 있다”고 말했다.