스마트폰이 뇌파를 인식해 사용자의 요구를 읽는다. 사용자가 친구와 채팅하고 싶다고 마음먹자 스마트폰이 저절로 메신저 애플리케이션(앱)을 연다. 대화가 끝나자 앱이 스스로 꺼진다. 이번에는 음악을 듣고 싶다고 생각하자 그 순간 가장 듣고 싶은 노래가 흘러나온다.
차세대 스마트폰 모습이다. 스마트폰이 뇌파를 감지해 사람의 생각을 읽기 때문에 가능하다. 연구는 이미 시작됐다. 미국 매사추세츠공과대학교(MIT)가 발행하는 테크놀로지뷰에 따르면, 삼성전자는 텍사스대학과 공동으로 뇌파 감지(EEG)를 활용, 사람의 뇌파로 스마트폰과 태블릿PC를 작동하는 기술을 개발하고 있다. 터치·음성·몸동작·눈동자 움직임에 이어 이제는 뇌로 스마트폰을 움직이는 시대가 열리는 셈이다.
그럼 뇌와 스마트폰은 어떻게 소통할까. 지난 10일 서울 광화문 한 카페에서 김대식(46) 카이스트(KAIST) 전자공학과 교수를 만났다. 그는 주로 신경과학, MRI(자기공명영상)를 활용한 뇌 정보처리 과정 등을 연구한다. 김 교수는 “사용자는 보고 듣고 말하는 식으로 스마트폰과 상호작용한다. 뇌가 감각기관을 조종해 스마트폰을 다루는 것이다”며 “이제 스마트폰 제조업체는 뇌가 쉽게 받아들일 수 있는 사용자 인터페이스(UI)와 사용자 경험(UX)을 개발해야 하는 과제를 안고 있다”고 말했다.
김 교수는 미래 스마트폰의 기능이 다시 분산될 것으로 예상했다. “피처폰을 생각해보자. 단말기가 가벼워 목에 걸고 다니다 수시로 전화하고 문자를 확인했다. 휴대전화에 담는 정보량이 크게 늘면서 단말기가 커졌다. 주머니에 넣기 버거운 것도 있다. 하지만 사용자는 수시로 갖가지 정보를 확인하고 싶어 한다. 지금 몇 시인지, 날씨는 어떤지, 페이스북에 오른 메시지는 뭔지 등등. 그래서 안경 모양의 구글글라스나 손목시계 모양의 아이워치(iWatch)가 나오는 거다. 온갖 기능을 통합한 스마트폰과 별개로 수시로 정보를 확인할 수 있는 기기 말이다.”
그는 차세대 스마트폰이 아날로그과 디지털 세상을 하나로 이어줄 것으로 예상했다. “사용자는 구글글라스로 바깥(아날로그)을 보면서 디지털 정보를 바로 확인할 수 있다. 현실과 가상세계의 공존이 차세대 스마트폰의 트렌드가 될 것”이라고 말했다.
김 교수는 앞으로 2~3년이 삼성전자·LG전자 같은 국내 기업들에 매우 중요한 시점이 될 것이라고 강조했다. “갤럭시S4가 이전 모델과 차이가 없자 소비자의 실망이 컸다. 전체 느낌(UI·UX)이 바뀌지 않은 탓이었다. 실제 안을 들여다보면 (성능 면에서) 큰 차이가 있다. 과거에는 스티브 잡스가 하는 것을 좇아 하면 됐다. 이제는 롤모델이 없어졌다. 앞으로 어떻게 트렌드를 이끌어가느냐가 국내 IT업체들의 과제다”고 말했다.
그는 “스마트폰은 하루 24시간 같이 지내는 기계”라며 “나에 대해 가장 잘 알고 있는 기계인 만큼 내가 판단하기 어려운 것, 내가 기억하기 버거운 것을 대신하거나 보완해줘야 한다”고 덧붙였다.
스마트폰이 이처럼 스마트해지면 뇌 기능이 퇴보하지는 않을까. 김 교수는 단호하게 고개를 저었다. “스마트폰 기능이 다양해질수록 사용자는 전화번호를 기억 못 하고 세밀한 내용은 잊는 건 맞다. 대신 더 중요한 일에 집중할 수 있게 해준다. 비서와 함께 다니는 것과 비슷하다. 일 잘하는 비서는 필요한 정보를 묻지 않아도 알아서 척척 준다. 뇌처럼 시키지 않아도 된다.”