일러스트=챗GPT 달리3

국내외 빅테크 기업들이 생성형 인공지능(AI) 서비스를 잇따라 출시하면서 윤리와 안전성을 앞세우고 있다. AI가 사회적으로 미칠 수 있는 부정적인 영향에 대한 우려가 커지는 상황에서, 자율적 리스크 관리 시스템을 구축해 정부의 규제를 피하려는 선제적 대응으로 분석된다.

◇ 카카오 “ASI로 AI 전 생애주기 리스크 대응”

카카오는 23일 AI 기술 개발과 운영 과정에서 발생할 수 있는 리스크를 사전에 식별하고, 이를 관리하는 프로세스를 정의한 리스크 관리 체계인 ‘카카오 AI 안전 이니셔티브(Kakao AI Safety Initiative, 이하 카카오 ASI)’를 구축했다고 밝혔다.

앞서 카카오는 지난 22일 새로운 생성형 AI 서비스 ‘카나나(Kanana)’를 공개했다. 카나나는 대화 내용을 기억하고, 맥락을 이해하며 감정까지 파악하는 AI 메이트 서비스다. 일대일 대화 뿐만 아니라 그룹 대화도 가능하다.

이에 카카오는 ASI를 통해 AI 기술 개발 및 운영 상의 위험 발생을 최소화하고, 안전하고 윤리적인 AI 시스템을 구축한다는 목표다. 카카오는 한국 기업 중 AI 알고리즘 윤리 기준도 최초로 마련한 바 있다.

카카오 제공

카카오 ASI는 ▲카카오 AI 윤리 원칙 ▲리스크 관리 사이클 ▲AI 리스크 거버넌스라는 3가지 요소로 구성된다. 기술의 설계부터 개발, 테스트, 배포, 모니터링 및 업데이트 등 AI 시스템의 전 생애주기에서 발생할 수 있는 리스크에 선제적인 대응이 가능한 것이 특징이다. AI와 인간이 초래할 수 있는 다양한 종류의 리스크를 폭넓게 관리하며, 인간의 부주의나 실수로 발생할 수 있는 영역까지 관리 범위를 포괄적으로 지정했다.

김경훈 카카오 AI 세이프티 리더는 “카카오 ASI 구축을 통해 글로벌 환경에 부합하는 수준의 AI 리스크 관리 체계를 마련하고자 한다”며 “안전한 AI 생태계 조성을 위한 협력을 이어갈 것이며, 윤리 기준을 선도해 갈 수 있도록 노력할 것”이라고 말했다.

네이버는 최근 ‘소버린 AI(Sovereign AI)’를 내세우면서 독립성과 윤리적 기준을 강화해 국가별 규제에 맞춘 맞춤형 AI를 개발하는 데 중점을 두고 있다. 자체 LLM(초거대언어모델) ‘하이퍼클로바X’를 통해 한국어와 아시아권 언어에 최적화된 AI 솔루션을 제공하며, 이 과정에서 사회적 편견과 윤리적 문제를 예방한다는 목표다.

◇ 각 국 정부, AI 규제 마련 속도

전 세계적으로 AI에 대한 규제 움직임이 강화하는 가운데, 글로벌 빅테크는 AI 윤리와 안전성에 대한 발빠른 대응을 하고 있다. 유럽연합(EU)은 지난 3월 세계 최초로 AI 규제법을 마련했는데, AI 기업이 규제를 위반하면 전 세계 매출의 최대 7%에 해당하는 과징금을 내야 한다. 미국·영국·일본 등 주요국도 정부 산하 AI 안전연구소를 설립하는 등 빅테크 기업들이 AI 기술을 보다 윤리적이고 안전하게 운영하도록 압박하고 있다. 한국 정부도 지난 18일 국가 차원의 AI 안전 연구와 글로벌 협력을 도맡을 AI 안전연구소 설립 계획을 확정했다.

마이크로소프트(MS)는 현재 자사 생성형 AI 서비스인 ‘코파일럿(Copilot)’에 대한 데이터의 안전성과 투명성을 보장하기 위한 ‘책임감 있는 AI(Responsible AI)’ 체계를 운영하고 있다. 이 체계는 AI가 데이터 처리 과정에서 발생할 수 있는 윤리적 문제를 해결하고, AI 시스템의 윤리적 문제 발생 가능성을 최소화하는 것을 목표로 한다. 지난해 말 애저 오픈AI 서비스에도 이 체계를 적용했다. MS는 “포춘 500대 기업의 60%가 이미 코파일럿을 도입했다”면서 “이러한 조치가 기업들로 하여금 규제 리스크를 미리 차단하게 할 것”이라고 설명했다.

IBM의 비즈니스용 AI 모델 '그래니트 3.0'./IBM 제공

IBM은 AI 시스템의 윤리적 관리 강화를 위한 ‘그래니트 가디언(Granite Guardian)’ 3.0 모델을 지난 22일 발표했다. 이 모델은 AI가 생성하는 출력물에서 발생할 수 있는 사회적 편견, 보안 취약점, 증오 발언 등을 사전에 탐지하고 차단하는 기술이다. 또 IBM은 AI의 투명성을 높이기 위해 모델 학습 데이터와 알고리즘을 검증하는 절차를 강화하겠다는 방침이다.

메타는 AI 기술의 개방성과 안전성을 동시에 추구하고 있다. 지난해 개발한 오픈소스 LLM ‘라마 2(LLaMA 2)’의 투명성을 강화하고, 가드레일(Guardrail) 기술을 통해 AI가 생성하는 콘텐츠가 사회적 문제를 일으키지 않도록 관리하고 있다. 가드레일이란 AI 모델이 생성한 텍스트가 사회적 편견, 증오 발언, 폭력적인 내용 등을 포함하지 않도록 하는 기술이다.

김명주 서울여대 바른AI연구센터장은 “빅테크 기업들이 AI 기술의 윤리와 안전성을 강화하는 것은 규제 압박을 피하려는 전략적 움직임”이라면서 “AI가 윤리적 문제나 환각 등 예측 불가능한 행동을 할 때 이용자들이 불안감을 느끼기 때문에 서비스 신뢰성을 높이기 위해서라도 필수적인 작업”이라고 말했다.