개인정보보호위원회(이하 개인정보위)는 인공지능(AI) 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 체계적인 지침을 제공하는 ‘안전한 인공지능(AI)·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델’(이하 리스크 관리 모델)을 공개했다고 19일 밝혔다.
이 리스크 관리 모델은 AI 생애주기에 걸친 프라이버시 리스크 관리의 방향과 원칙, 리스크 유형, 그리고 경감 방안을 체계적으로 정리한 것으로, AI 기술 발전과 개인정보 유출 및 새로운 리스크의 증가에 따른 대응 필요성을 반영한 것이다.
특히 개인정보위는 지난해 12월부터 민·관 정책협의회 리스크 평가 분과의 논의를 통해 리스크 관리 모델을 마련했다. 이 모델은 국내외 학계, 정부, 연구기관 등이 논의한 AI 데이터 처리 특성, 프라이버시 리스크 유형 및 경감 방안을 종합적으로 담고 있다.
리스크 관리 모델은 ▲AI 유형과 용례 파악 ▲리스크 식별 및 측정 ▲안전조치 마련 등 절차를 중심으로 AI 기획·개발 단계에서부터 주기적 관리가 이루어질 것을 권장한다. 또한, 관리적·기술적 안전조치를 통해 리스크를 경감하는 구체적 방안도 제시했다.
개인정보위는 AI 기술 발전과 글로벌 동향을 고려해 리스크 관리 모델을 지속 업데이트할 계획이며, 소규모 기업 및 세부 영역에 특화된 추가 자료도 마련할 예정이다.
이번 논의를 주도한 박상철 서울대 교수는 “빠르게 발전하는 AI 기술과 개인정보보호 규제 간 간극을 체계적으로 해결하려는 의미 있는 모델”이라고 말했다. 배경훈 LG AI 연구원장은 “우리나라가 국제적 AI 프라이버시 논의에서 선도적 역할을 할 수 있는 기반을 마련했다”고 밝혔다.
고학수 개인정보위 위원장은 “AI 영역의 불확실성을 고려해 합리적이고 비례적인 관리가 필요하다”며 “이번 리스크 관리 모델이 AI 기업의 프라이버시 리스크 관리를 지원하는 데 실질적 도움이 되길 기대한다”고 말했다.