미국 연구진이 마비 환자의 뇌파(EEG)를 해독해 생각대로 로봇 팔과 컴퓨터를 조작할 수 있는 기술을 개발했다. 기존 방식처럼 뇌에 전극을 삽입하거나 뇌 혈관에 장치를 넣지 않고도 두피에 흐르는 미세한 전류만으로 인공지능(AI)이 생각을 해독한 덕분이다.
미국 로스앤젤레스 캘리포니아대(UCLA) 연구진은 "마비 환자가 비침습적 AI-뇌-컴퓨터 인터페이스(BCI) 시스템을 사용해 로봇 팔과 컴퓨터 커서를 움직이는 데 성공했다"고 국제 학술지 '네이처 머신 인텔리전스(Nature Machine Intelligence)'에 1일(현지 시각) 발표했다.
BCI는 뇌파를 컴퓨터로 해독해 전기신호로 바꿔 기계나 컴퓨터를 제어하는 기술이다. 일론 머스크가 세운 스타트업 뉴럴링크와 호주 싱크론이 대표적인 BCI 기업이다. 하지만 기존 BCI 방식은 두개골 아래나 목 혈관 등에 작은 칩을 이식해 위험하고 번거로웠다. 장치 수명이 짧아 재수술이 필요하다는 한계가 있었다.
마비 환자는 그동안 눈동자 움직임으로 컴퓨터나 로봇을 조작했다. 하지만 속도나 정확도가 떨어지고 환자가 오래 하기 힘들었다. UCLA 연구진은 뇌의 전기신호인 뇌파를 감지하고 의도를 해독하는 맞춤형 BCI 알고리즘을 개발했다. 이전처럼 뇌에 전극을 이식하지 않고 두피에 흐르는 미세 전류로도 뇌파를 감지했다. 이를 카메라 기반의 AI 플랫폼과 결합하자 그전보다 훨씬 빠르게 작업을 해냈다.
마비 환자는 두피에 흐르는 뇌파를 감지하는 두건을 쓰고 컴퓨터 화면의 커서를 목표 지점으로 이동시키거나, 로봇 팔을 이용해 탁자 위 블록을 지정된 위치로 옮기는 과제를 수행했다. AI가 돕지 않으면 블록 옮기기를 끝내지 못했지만, AI를 적용하자 6분 30초 만에 과제를 완료했다.
앞선 연구에서는 뇌에 전극을 이식해 마비 환자의 생각대로 컴퓨터나 로봇을 조작하는 데 성공했다. 스탠퍼드대 연구진은 아직 입으로 말할 생각은 없고 마음 속에서만 하는 말까지 해독했다. 입으로 말하는 시도조차 불편한 마비 환자가 쉽게 머릿속 말을 상대에 전하는 길이 열리는 것이다. 이때도 AI가 뇌 신호를 기계가 이해할 수 있도록 해석하는 역할을 했다. 다만 뇌파 패턴을 '왼손 움직임' '오른손 움직임'처럼 분류해 기계 명령으로 전환하는 수준이었다.
두피에 흐르는 전류로도 뇌파를 감지할 수 있지만 신호가 약했다. 그만큼 뇌파 감지의 정확도와 속도가 낮아 뇌에 이식한 전극만큼 성과를 거두지 못했다. UCLA 연구진은 두건 형태의 뇌파 감지기에 일종의 '부조종사' 역할을 하는 AI를 결합했다. AI 부조종사는 카메라로 사용자가 뇌파로 어떤 동작을 수행하려고 하는지 상황적 맥락을 스스로 파악하고, 두 정보를 결합해 작업의 속도와 정확도를 동시에 높였다.
연구를 이끈 조너선 카오(Jonathan Kao) UCLA 전기·컴퓨터공학과 교수는 "AI가 BCI를 보완하면 훨씬 안전하고 덜 침습적인 방법으로 일상 회복이 가능하다"며 "마비나 루게릭병 환자들이 식사, 물건 집기 같은 기본 동작을 스스로 할 수 있게 만드는 것이 궁극적인 목표"라고 말했다.
연구에 참여한 요하네스 리(Johannes Y. Lee)박사는 "앞으로는 더 정밀하고 빠른 로봇 팔을 구현하고, 다양한 물체에 적응하는 '섬세한 손길'을 갖춘 AI 조종사 개발이 필요하다"며 "대규모 학습 데이터를 활용하면 뇌파 신호 해석 능력도 개선될 것"이라고 전망했다.
참고 자료
Nature Machine Intelligence(2025), DOI: www.doi.org/10.1038/s42256-025-01090-y
Cell(2025), DOI:https://doi.org/10.1016/j.cell.2025.06.015