사람 뇌에서 나오는 신호를 해독해 생각만으로 로봇 팔을 원하는 방향으로 움직이게 하는 시스템이 국내에서 개발됐다.
24일 한국과학기술원(KAIST)에 따르면 정재승 뇌인지과학과 교수와 정천기 서울대 의대 신경외과 교수 연구진은 환자가 머릿속으로 상상한 팔 움직임을 예측하는 ‘뇌 신호 해석 시스템’을 개발했다. 이렇게 인간이 생각만으로 기계를 제어할 수 있는 기술을 ‘뇌-기계 인터페이스’라고 한다.
뇌-기계 인터페이스를 구현하려면 뇌에서 발생하는 전기신호를 정확히 측정한 다음, 인공지능(AI) 분석 기법으로 신호를 해독해야 했다. 그러나 상상만 할 때 발생하는 뇌 신호는 실제로 몸을 움직일 때 발생하는 뇌 신호보다 잡음이 많아 제대로 측정하기가 어려웠다.
연구진은 대신 상대적으로 잡음이 적고 해상도가 높은 뇌 신호인 ‘대뇌 피질 신호’를 분석하기로 했다. 뇌전증 환자가 팔을 뻗는 동작을 상상할 때 발생하는 대뇌 피질 신호를 측정하고, 그 데이터를 딥러닝(심층학습) AI에 학습시켜 시스템을 구현했다.
연구진에 따르면 이번에 개발한 시스템은 사용자 맞춤형 학습도 가능하다. 뇌 신호 음역대, 뇌 신호가 발생하는 대뇌 영역 등은 사람마다 다른데, 이런 사용자 특성에 맞춰 최적의 계산 모델 결괏값을 출력할 수 있다는 것이다. 최대 80% 정도 정확도로 환자가 상상한 팔 뻗기 방향을 예측할 수 있다고 연구진은 밝혔다.
앞서 연구팀은 지난 2월에도 이와 유사한 시스템을 개발해 발표했다. 먼저 개발한 시스템은 AI가 뇌 신호를 해석해 24개로 정해진 팔 뻗는 방향 중 하나를 맞추는 방식이었다. 이번 시스템은 당시 결과물을 좀 더 고도화시킨 것이다. 이번에는 팔을 뻗는 방향을 정해두지 않았다. 여기에 로봇 팔이 움직이는 경로에 대한 데이터도 학습시켜 좀 더 자연스러운 움직임을 구현하는 데 성공했다.
정재승 교수는 “지난번 시스템이 객관식 문제를 맞추는 식이었다면, 이번 시스템은 주관식을 맞추는 AI이기 때문에 좀 더 수준이 높은 기술이다”라며 “또 로봇 팔이 사람 팔처럼 자연스럽게 움직일 수 있도록 데이터를 학습시켰기 때문에 기존에 있던 로봇 팔보다 실생활에 쓰기 적합하다”고 말했다.
이번 연구 결과는 지난달 7일 뇌공학 분야 국제 학술지인 `신경 공학 저널(Journal of Neural Engineering)’에 출판됐다. 논문 제1 저자인 장상진 연구원(박사 과정)은 “이번에 개발한 뇌 신호 분석 기술은 향후 사지마비 환자, 운동장애 환자 등이 사용할 로봇팔 움직임의 정확도와 효율성을 개선하는 데 이바지할 수 있을 거라 기대한다”고 말했다.
참고자료
Journal of Neural Engineering, https://doi.org/10.1088/1741-2552/ac8b37