구글의 인공지능(AI) 음성비서인 구글 어시스턴트가 한층 강화된 딥러닝 기술을 기반으로 10배 빠른 속도를 갖추게 됐다. 클라우드를 중심으로 제공되던 AI 기능이 온디바이스(On Device)로 지원 가능해지면서 이동통신 상태와 무관하게 빠른 서비스가 가능해진 것이다.

7일(현지 시각) 미국 캘리포니아주 마운틴뷰 쇼라인 앰피씨어터에서 열린 ‘구글 I/O 2019’에서 선다 피차이 구글 CEO는 "딥러닝 기술의 발전을 통해 기존에는 클라우드상에서 100GB 용량의 모델로 돌아가던 AI가 0.5GB 수준 용량의 칩으로 스마트폰 안에 들어갈 수 있게 됐다"며 "이는 굳이 스마트폰이 클라우드를 거칠 필요 없이 모바일 기기상에서 어시스턴트를 돌릴 수 있게 됐다는 의미"라고 설명했다.

7일(현지 시각) 미국 캘리포니아주 마운틴뷰 앰피씨어터에서 구글의 연례 최대 개발자행사인 ‘구글 I/O 2019’가 열렸다.

온디바이스 AI는 지난해부터 인공지능 연구자들의 주된 관심사 중 하나였다. 기존의 AI의 경우 무거운 용량의 모델을 돌려서 학습하는 방식이기 때문에 주로 모바일 기기와 같은 소비자 기기가 아니라 클라우드에서 운영되는 것이 일반적이었다. 하지만 구글은 인공지능 신경망인 RNN(Recurrent Neural Networks)을 활용해 완전히 새로운 음성 인식 및 언어 이해 모델을 개발해 AI의 몸집을 획기적으로 줄였다.

AI 엔진이 이처럼 작은 용량으로 스마트폰 내부에 장착될 경우 초저지연(Low Latency) 기술로 구현이 가능해진다. 순다 피차이 CEO는 "손가락으로 스마트폰을 건드리는 것이 너무 느리다고 여겨질 정도로 구글 어시스턴트의 일처리 속도가 빨르졌다"며 "이는 구글 어시스턴트의 미래를 완전히 바꾸는 기술"이라고 설명했다.

실제 구글은 한층 더 빨라진 구글 어시스턴트를 행사장에서 시연했다. 메일 보내기, 메시지 보내기, 사진 열기, 사진 열어서 특정한 동물이 나온 사진 찾기 등 복잡한 사용자의 주문이 대기시간이 거의 없이 이뤄졌다.

언어인식 모델도 한층 강화됐다. 과거의 경우 "엄마의 집(Mom’s House) 날씨는 어때?"와 같은 질문을 던질 경우 구글 어시스턴트는 해당 질문을 사용자의 어머니 집이 아니라 인근에 위치한 음식점으로 알아듣는 등의 잘못된 정보를 제공하는 경우도 있었다. 하지만 AI의 사용자 인지 기능이 더 강화돼 사용자의 질문을 맥락에 따라 알아듣는 방식을 학습하게 됐다.

스콧 허프만(Scott Huffman) 구글 어시스턴트 엔지니어링 부사장은 "사용자가 원하는 엄마의 집을 찾으려면 AI가 사용자를 더 잘 이해해야 한다. 구글은 지식 그래프라는 개념을 통해 사용자의 개인적 레퍼런스를 더욱 잘 파악하는 솔루션을 도입했다"고 설명했다.

허프만 부사장은 "온디바이스 기반의 AI이기 때문에 이 차세대 구글 어시스턴트는 오프라인 상태에서도 구동 가능하게 될 것"이라며 "올해 하반기 새로운 구글의 스마트폰에 적용될 전망"이라고 설명했다.