실험 참가자가 VR 헤드샛을 끼고 가상현실 속의 물체를 잡거나, 그런 상상을 하면 그때 발생하는 뇌 전기신호를 해독한다. 인공지능은 이 전기신호를 학습해 사람이 팔을 움직이는 상상을 하는 대로 로봇팔을 구동시킨다./Journal of Neural Engineering

사람 뇌에서 나오는 신호를 해독해 생각만으로 로봇 팔을 원하는 방향으로 움직이게 하는 시스템이 국내에서 개발됐다.

24일 한국과학기술원(KAIST)에 따르면 정재승 뇌인지과학과 교수와 정천기 서울대 의대 신경외과 교수 연구진은 환자가 머릿속으로 상상한 팔 움직임을 예측하는 ‘뇌 신호 해석 시스템’을 개발했다. 이렇게 인간이 생각만으로 기계를 제어할 수 있는 기술을 ‘뇌-기계 인터페이스’라고 한다.

뇌-기계 인터페이스를 구현하려면 뇌에서 발생하는 전기신호를 정확히 측정한 다음, 인공지능(AI) 분석 기법으로 신호를 해독해야 했다. 그러나 상상만 할 때 발생하는 뇌 신호는 실제로 몸을 움직일 때 발생하는 뇌 신호보다 잡음이 많아 제대로 측정하기가 어려웠다.

연구진은 대신 상대적으로 잡음이 적고 해상도가 높은 뇌 신호인 ‘대뇌 피질 신호’를 분석하기로 했다. 뇌전증 환자가 팔을 뻗는 동작을 상상할 때 발생하는 대뇌 피질 신호를 측정하고, 그 데이터를 딥러닝(심층학습) AI에 학습시켜 시스템을 구현했다.

연구진에 따르면 이번에 개발한 시스템은 사용자 맞춤형 학습도 가능하다. 뇌 신호 음역대, 뇌 신호가 발생하는 대뇌 영역 등은 사람마다 다른데, 이런 사용자 특성에 맞춰 최적의 계산 모델 결괏값을 출력할 수 있다는 것이다. 최대 80% 정도 정확도로 환자가 상상한 팔 뻗기 방향을 예측할 수 있다고 연구진은 밝혔다.

사람이 팔을 움직이는 상상을 하면(오른쪽) 그 때 나오는 뇌 전기신호를 해독해 로봇팔이 그대로 동작을 한다(왼쪽)./KAIST·서울대병원 공동 연구진

앞서 연구팀은 지난 2월에도 이와 유사한 시스템을 개발해 발표했다. 먼저 개발한 시스템은 AI가 뇌 신호를 해석해 24개로 정해진 팔 뻗는 방향 중 하나를 맞추는 방식이었다. 이번 시스템은 당시 결과물을 좀 더 고도화시킨 것이다. 이번에는 팔을 뻗는 방향을 정해두지 않았다. 여기에 로봇 팔이 움직이는 경로에 대한 데이터도 학습시켜 좀 더 자연스러운 움직임을 구현하는 데 성공했다.

정재승 교수는 “지난번 시스템이 객관식 문제를 맞추는 식이었다면, 이번 시스템은 주관식을 맞추는 AI이기 때문에 좀 더 수준이 높은 기술이다”라며 “또 로봇 팔이 사람 팔처럼 자연스럽게 움직일 수 있도록 데이터를 학습시켰기 때문에 기존에 있던 로봇 팔보다 실생활에 쓰기 적합하다”고 말했다.

이번 연구 결과는 지난달 7일 뇌공학 분야 국제 학술지인 `신경 공학 저널(Journal of Neural Engineering)’에 출판됐다. 논문 제1 저자인 장상진 연구원(박사 과정)은 “이번에 개발한 뇌 신호 분석 기술은 향후 사지마비 환자, 운동장애 환자 등이 사용할 로봇팔 움직임의 정확도와 효율성을 개선하는 데 이바지할 수 있을 거라 기대한다”고 말했다.

참고자료

Journal of Neural Engineering, https://doi.org/10.1088/1741-2552/ac8b37