내년에는 사이버 공격에 인공지능(AI) 기술을 악용하는 사례가 본격화할 것이라는 분석이 나왔다.
과학기술정보통신부는 18일 국내외 정보보안 전문가와 함께 작성한 올해 사이버 위협 분석과 내년 전망 보고서를 공개했다. 내년 사이버 위협 전망에 따르면 AI 서비스 사용이 일반화되며 챗GPT와 같은 검증된 모델을 사용한 선전·선동이나 피싱 공격이 증가할 것으로 예상된다.
오픈AI에 따르면 러시아와 중국 등 일부 국가에서 인터넷상 여론 조작 및 정치적 선전에 챗GPT를 사용한 사례가 나타났다. 보고서는 “AI를 활용해 정교하게 작성한 허위 콘텐츠는 진짜와 구별하기 힘들고 가짜뉴스와 SNS를 통해 빠르게 확산한다”며 “특정 집단에 의한 여론 조작으로 사회적 갈등과 혼란이 증가할 가능성이 크다”고 전했다.
보고서는 “생성형 AI가 기업 내부 시스템과 연동돼서 구축된 경우 민감한 데이터의 노출과 오용 가능성이 커진다”며 “기업들이 AI 모델 도입 단계에서 보안을 내재화하고 상시 모니터링 체계를 구축해야 한다”고 조언했다. 생성형 AI 외에도 목적 자체가 불법적인 사기(Fruad)GPT, 웜(Worm·악성코드 생성)GPT 등 악성 AI 모델이 다크웹 등에서 퍼질 것으로도 예상된다.
보고서는 자율주행차, 스마트 빌딩·교통 시스템 등 디지털 융합 기술이 확산함에 따라 이를 노린 사이버 위협도 커질 가능성이 있다고 봤다. 아울러 우크라이나-러시아 전쟁 장기화 등 글로벌 분쟁 심화에 따른 정부 기관 및 사회 기반 시설에 대한 사이버 공격 증가 가능성도 제시했다.
보고서는 올해 일어난 주요 사이버 위협 양상으로 스팸, 피싱 증가에 따른 국민 피해, 소프트웨어 공급망 공격 등 복합적인 공격 전술, 랜섬웨어 공격기법 고도화를 꼽았다.