사람이 웃으면 따라 웃는 로봇이 나왔다. 로봇이 사람의 표정을 따라 하면서 서로의 신뢰감을 높일 수 있는 기술이다. 사회 곳곳에서 로봇의 활용도가 커지는 가운데 로봇에 대한 심리적인 장벽을 낮출 수 있는 기술로 주목 받고 있다.
호드 립슨(Hod Lipson) 미국 컬럼비아대 기계공학과 교수 연구팀은 사람의 표정을 인식하면서 자신의 표정도 바꿀 수 있는 인간화 로봇(휴머노이드)을 개발해 국제학술지 '사이언스 로보틱스(Science Robotics)'에 28일 발표했다.
연구팀이 개발한 로봇은 '에모(EMO)'로, 이전에 개발한 로봇 '에바(EVA)'의 성능이 향상된 버전이다. 에모는 이전 버전보다 표정을 더 정밀하게 제어하기 위해 부품이 대폭 개선됐다. 얼굴 근육 역할을 하는 액추에이터는 10개에서 26개로 늘었고, 로봇의 피부를 움직이는 케이블은 자석으로 대체됐다. 얼굴에는 표정 제어 전용 모터 23개, 목 움직임을 조절하는 모터 3개가 들어갔다.
표정은 눈에 달린 고해상도 카메라로 인식한다. 우선 에모는 자신의 얼굴을 보면서 표정을 훈련하는 과정을 거친다. 사전 명령 없이 로봇이 임의로 표정을 짓도록 하고 그 모습을 촬영한다. 그다음에는 사람의 표정을 포착한 후 자신의 표정과 똑같이 만들도록 했다. 반복 학습을 통해 사람이 웃으면 따라 웃을 수 있게 된다.
에모가 이전 버전인 에바와 가장 다른 점은 반응 속도다. 현재 개발된 로봇들도 사람의 감정을 인지하고 표정을 지을 수 있지만, 바로 표정을 바꾸는 게 어렵다. 사람은 얼굴의 변화가 느리면 반응이 인위적인 것으로 인식하고, 불쾌함을 느낄 수 있다. 사람이 대화하면서 표정을 풍부하게 사용하는 게 의사소통 능력 향상에 도움이 되는 것도 같은 이유다.
에모가 사람의 표정을 따라 하는 데 걸리는 시간은 1초도 되지 않는다. 연구팀이 밝힌 에모의 인식·표현 시간은 0.893초다. 이전 모델인 에바와 비교해 5배나 빨라졌다. 연구팀은 자신의 표정을 예측하는 두 개의 자체 모델 신경망과 대화자의 표정을 예측하는 또 다른 신경망을 적용해 에모를 학습시켰다.
에모는 얼굴만 있는 인간화 로봇이지만, 기쁨과 슬픔, 놀라움, 분노, 혐오, 공포 등 다양한 감정을 통해 사회적으로 유용하게 사용될 수 있다. 대표적인 분야가 신경과학과 심리학이다. 신경과학에서는 동물이 모방과 관련된 행동을 할 때 활성화되는 '거울 뉴런' 시스템을 이해하는 데 이 로봇이 활용될 수 있다. 심리학에서는 자폐 스펙트럼 장애가 있는 사람을 위한 교육·치료에 사용될 것으로 기대된다.
다만 사람과 감정을 공유하는 로봇의 출현에 앞서 풀어야 할 숙제도 있다. 오히려 사람을 따라하는 것이 불쾌함을 불러일으킬 수 있기 때문에다. 연구팀은 "로봇이 사람 흉내를 내기 위해서는 표정을 신중히 선택해야 한다"며 "미소와 고개 끄덕이기, 눈 맞춤은 긍정적으로 인식되지만, 눈살을 찌푸리거나 토라지는 표정은 의도하지 않은 감정을 전달할 수 있다"고 설명했다.
로봇의 표정이 다양해지면서 윤리적인 문제도 나타날 수 있다. 연구팀은 "로봇의 표정 변화는 가정이나 교육 현장 같은 다양한 응용 분야로 개발될 수 있지만, 윤리적 고려 사항은 사용자에게 달려 있다"며 "속임수나 조작 같은 기술의 오용 가능성을 막기 위해 사회 가치에 부합될 수 있는 거버넌스가 필요하다"고 강조했다.
참고자료
Science Robotics, DOI: https://doi.org/10.1126/scirobotics.adi4724