인간이 컴퓨터에게 말을 거는 방법은 한때 '키보드'가 전부였다. 그러나 최근엔 말로 툭툭 던져도 알아듣고, 그림만 보여줘도 원하는 결과를 척척 내놓는 시대가 됐다. 컴퓨터도 점차 인간의 오감(五感)을 이해하는 방향으로 진화하는 것이다.

최근 IT업체들이 주력하는 분야는 '음성'이다. 스마트폰에서는 애플의 '시리(Siri)'를 비롯, 'S보이스'(삼성전자), 'Q보이스'(LG전자) 등 다양한 음성명령 서비스가 도입되면서 이미 보편화의 단계로 접어들고 있다. 스마트TV도 '채널 올려' '볼륨 내려' 등과 같은 명령으로 조작이 가능하다.

포털‘다음’앱의 와인라벨 검색(왼쪽), 음악검색 앱인‘사운드하운드’.

포털 사이트 음성검색은, 이용자가 검색어를 말하면 음성파일을 곧바로 데이터센터로 전달한다. 이를 텍스트 형태의 단어나 구문으로 바꾼 뒤, 수십억개의 검색어와 대조해 가장 근접한 형태의 단어로 검색하는 식이다.

카페에서 좋은 음악이 흘러나오면 곧바로 스마트폰을 가져다대는 사람이 흔해졌을 만큼, 음악검색도 이제 대중화됐다. 네이버·다음과 같은 포털 앱이나 '사운드하운드(soundhound)' 같은 앱에서 이용 가능하다. 앱을 작동하면 노래를 몇 초간 녹음한 뒤, 특징적인 오디오 정보를 추출해 데이터센터에 저장된 음원들과 비교한다. 그중 상당 부분 일치하는 음원을 찾아 스마트폰에 해당 노래를 보여주는 것이다.

스마트폰으로 찍은 사진이나 그림과 가장 유사한 이미지를 찾아 보여주는 '이미지 검색'도 있다. 미술관에서 본 명화나, 와인 라벨 등을 찍어 검색하면 해당 이미지에 대한 정보를 보여준다. 이미지를 기호로 바꾼 뒤 데이터센터의 다른 이미지들과 대조작업을 거쳐 이용자에게 검색결과를 보여주는 데 드는 시간은 수 초밖에 걸리지 않는다.

최근엔 손으로 원하는 글자모양을 그려서 검색하는 '필기검색' 서비스도 등장했다. 손가락으로 터치스크린에 글자를 그리면, 이를 X축과 Y축에 대응하는 좌표 정보로 변환하는 원리다. 이를 사전에 축적된 다양한 필기정보와 비교해, 가장 근접한 단어로 바꿔서 보여주는 것이다. 구글 관계자는 "흔들리는 차 안이나 운동하는 동안에도 오타 없이 손쉽게 검색할 수 있도록 만든 기술"이라며 "현재 27개 언어로 지원하고 있고 조만간 한국어 버전도 출시할 계획"이라고 말했다.

아예 검색어를 입력하기도 전에 나의 위치정보와 날씨·교통상황·검색기록 등을 바탕으로 '필요할 만한 정보'를 알아서 보여주는 서비스도 있다. 구글이 지난 6월 미국 샌프란시스코에서 열린 연례 개발자회의에서 공개한 '구글나우(Google Now)' 서비스다. 출근길에 정류장에 도착하면 타야 할 버스가 언제 오는지 알려주고, 좋아하는 스포츠팀을 설정해두면 알아서 경기 결과를 보여주는 식이다. 사용자 정보를 분석해 철저히 개인화된 검색결과를 내주기 때문에, 일각에서는 '사생활 침해'라고 비판할 정도다.

이런 추세라면 인간의 오감(시각·청각·촉각·후각·미각) 중 미답(未踏)의 영역인 맛과 향기에도 곧 검색이 침투해, 대중화의 장(場)으로 성큼 끌고 나오지 않을까.