미국 뉴욕주 IBM 왓슨 본부에선 요즘 인공지능(AI·artificial intelligence) 엔진 왓슨에 한국어를 '가르치는' 작업이 한창이다. IBM과 전략적으로 제휴한 SK㈜ C&C 기술진이 작년 5월 현지로 건너가 한국어 대화의 유형과 맥락을 학습시키고 있다. IBM 관계자는 "한국 TV 프로그램과 영화, 뉴스 등 한국어 음성이 들어간 오디오 파일 수백 시간 분량을 매일 올리고 있다"고 말했다. 한 달에 100만판씩 바둑을 두며 패턴 이해 능력을 기른 구글의 인공지능 '알파고'처럼 막대한 양의 일상 언어(자연어) 데이터를 11개월째 AI에 입력하고 있는 것이다. 한국전자통신연구원 이윤근 음성지능연구그룹장은 "일일이 정답을 제시하는 대신 데이터만 던져주고 스스로 학습하게 하는 비(非)지도 학습을 하는 것"이라고 말했다.

인공지능이 한국어 공부에 몰두하고 있다. 한국 서비스를 본격적으로 시작한 IBM 왓슨과 구글은 물론 삼성전자·KT·SK텔레콤·네이버 등 국내 기업들도 AI의 한국어 구사 능력을 높이기 위해 치열한 경쟁을 벌이고 있다. 스마트폰과 PC, 가전(家電)제품, 자율주행차까지 음성으로 제어하는 시대를 앞두고 AI가 얼마나 사람 말을 잘 이해하고 반응하는지가 모든 기기의 핵심 요소로 부상하고 있기 때문이다.

AI는 한국어 '열공' 중

AI의 한국어 학습법은 음성을 인식하는 기본 단계에서 빅데이터를 통한 학습, AI가 스스로 공부하는 기계학습(machine learning) 단계로 나뉜다.

예컨대 카카오의 경우 기본 단계에서는 남녀 2000명을 모집, 약 1000시간 분량 음성을 녹음한 뒤 수많은 발음에서 평균적 특징을 추출하고 인터넷에서 문서를 수집해 언어 학습을 시켰다. 그다음엔 실제 서비스에서 음성 검색 이용자들이 남긴 막대한 빅데이터를 활용해 AI 성능을 업그레이드했다. 이 단계가 지나면 AI는 스스로 학습해 문장에서 미묘한 뉘앙스 차이까지 인식하는 법을 배운다. 카카오 김훈 음성처리파트장은 "현재 수만 시간가량의 음성 빅데이터가 쌓여 있고, 이를 AI가 학습하고 있다"며 "문장에서 '배' 앞뒤로 '강'(江)이 있는 경우와 '아프다'가 있을 때 의미 차이도 구분할 수 있게 된다"고 말했다.

네이버는 하루 3억5000만건씩 입력되는 검색 키워드와 네이버 지식인에 쌓인 빅데이터를 AI의 언어 지능을 고도화하는 데 활용하고 있다. 강인호 네이버 이사는 "갓난아기가 엄마 아빠 말만 듣고 자라다 스스로 한글을 깨치는 것과 똑같은 원리"라고 말했다. 궁극적으로 '그거 있잖아' 같은 애매한 말도 문맥 속에서 이해하게 만든다는 것.

KT 음성 인식 기술은 남녀 목소리, 지역별 사투리, 화난 목소리 등을 구별하는 것이 특징이다. KT 융합기술원 류창선 팀장은 "콜센터를 운영하면서 전화 건 사람이 남자면 여자 목소리 AI로 응대하고, 화가 난 상태면 AI 대신 사람이 응대케 하는 서비스 모델을 구상했다"고 말했다.

음성으로 기기 제어하는 시대 열린다

글로벌 기업들이 음성 인식 AI에 목숨을 거는 것은 PC의 마우스나 스마트폰의 터치를 넘어 앞으로는 음성으로 모든 것을 제어하는 시대가 오기 때문이다. 스마트폰뿐 아니라 가전제품과 자율주행차(무인차)까지 수많은 기기에 음성 인식 기능이 담기면서 음성 인식을 장악하는 기업이 미래 시장의 출입구를 선점하게 되는 것이다. 실제로 삼성전자는 스마트폰용 AI 비서 빅스비를 에어컨·냉장고 등 다른 가전(家電)으로 확대 적용하겠다고 발표했다. 구글어시스턴트는 현재 서비스하는 영어와 독일어뿐 아니라 한국어·프랑스어 등 다양한 언어로 한 사람이 10년 동안 사용하는 분량의 말을 매일 학습하는 것으로 전해졌다.