뇌-기계 인터페이스./pixabay

SF(과학)영화를 보면 생각만 해도 상대가 무슨 말인지 알아듣는 장면이 나온다. 영화의 상상력이 머지않아 현실이 될 수도 있다. 입을 움직이거나 소리를 내지 않아도 무슨 생각을 하는지 읽을 수 있는 기술이 나왔다. 정확도가 80%에 달해 말할 수 없는 환자들이 의사소통하는 데 도움이 될 것으로 보인다.

미국 캘리포니아 공대(칼텍) 생명공학과 리처드 앤더슨(Richard A. Andersen) 교수와 박사과정 사라 완델트(Sarah Wandelt) 연구원은 “생각하는 사람의 뇌 활동을 포착해 언어로 번역하는 뇌-기계 인터페이스(BMI)를 개발했다”고 13일(현지 시각) 밝혔다.

BMI는 뇌와 기계를 연결해 컴퓨터나 기계를 조작하는 시스템을 말한다. 일론 머스크 테슬라 최고경영자(CEO)가 세운 뇌신경과학 스타트업인 뉴럴링크가 대표적인 BMI 업체다. 뉴럴링크가 뇌에 이식한 칩으로 뇌 신호를 읽어 기계를 조작할 수 있는 명령어로 바꾼다면, 칼텍 연구진이 개발한 기술은 뇌 신호를 단어로 번역한다.

다른 연구진도 뇌 신호를 단어나 음성으로 바꾸는 BMI 기술을 개발했다. 하지만 단어와 문장을 떠올리는 뇌 영역이 명확하지 않아 대부분 발성 과정, 음성 데이터에 의존했다. 즉 소리를 내려고 해야 어떤 단어인지 알 수 있었다. 이번에는 완전히 생각만 하면 단어를 알아냈다.

연구진은 뇌에서 말과 글을 처리하는 모서리위이랑(supramarginal gyrus, 연상회) 부위에 주목했다. 척수 손상을 입은 참가자 2명의 뇌 모서리위이랑에 작은 전극을 부착했다. 이식 2주 뒤, 참가자들에게 숟가락이나 비단뱀, 카우보이와 같은 단어 6개와 의미 없는 단어 2개를 생각하도록 하고 뇌 신호를 수집했다. 단어당 8번씩 실험을 반복했다. 특정 단어에 맞는 뇌 신호를 알아낸 것이다.

이어 참가자가 단어 8개 중 무작위로 머리에 떠올린 단어를 뇌 신호로 예측하는 실험을 진행했다. 첫 번째 참가자는 단어마다 뇌 신호가 뚜렷하게 달라 79%의 정확도로 단어를 예측할 수 있었다. 두 번째 참가자는 단어마다 고유하게 활성화되는 신경세포가 적어 정확도가 23%에 불과했다. 연구진은 “모서리위이랑 외에 하위 영역의 신경세포들도 이 과정에 관여할 수 있다”고 설명했다.

연구진은 “초기 단계라 소수의 단어만 해독할 수 있다”며 “더 많은 참가자를 대상으로 새로운 단어를 시험해 기술을 개선하는 추가 연구가 필요하다”고 밝혔다. 아직 단어를 생각할 때 뇌에서 어떤 일이 일어나는지 미지수이기 때문이다.

과학계는 이번 연구 결과가 발전하면 말할 수 없는 사람들의 생각을 읽는 데 도움이 될 수 있다고 전망했다. 실비아 마르케소티(Silvia Marchesotti) 스위스 제네바대 연구원은 네이처지 인터뷰에서 “생각을 해독하는 분야에서 가장 진보된 기술”이라며 “실제로 말을 할 수 없는 사람들에게 적용할 수 있을지가 중요하다”고 평했다.

연구 결과는 이날 국제 학술지 ‘네이처 인간 행동(Nature Human Behaviour)’에 공개됐다.

참고 자료

Nature Human Behaviour(2024), DOI: https://doi.org/10.1038/s41562-024-01867-y