뇌를 탑재한 AI가 복잡한 미로의 중심에서 미로 안으로 들어가기 위해 준비하고 있다. 이는 트랜스포머 모델이 인간과 뇌의 연관성을 탐구하며, 뇌의 기억 통합 과정에서 영감을 얻어 자신의 기억을 테스트하려는 과정을 상징한다고 연구팀은 설명했다./IBS

인공지능(AI)의 학습 능력을 향상시키기 위한 열쇠가 인간의 뇌에 숨어 있었다.

기초과학연구원(IBS)은 ‘인지 및 사회성 연구단’ 이창준 단장과 ‘수리 및 계산 과학 연구단’ 데이터 사이언스 그룹 차미영 CI 공동 연구팀이 뇌의 해마에서 일어나는 기억 통합의 생물학적 특징을 활용해 AI의 효율성을 크게 높이는 방법을 찾았다고 30일 밝혔다.

챗GPT 같은 대규모 언어처리 모델이 등장한 건 2017년 구글에서 개발한 AI 모델인 ‘트랜스포머(Transformer)’ 덕분에 가능했다. 트랜스포머 모델은 문장 속 단어와 같은 시계열 데이터 내의 관계를 추적해 맥락과 의미를 학습한다.

연구팀은 인간의 뇌에 있는 해마에서 단기 기억을 장기 기억으로 전환하는 매커니즘에 주목했다. 단기 기억을 장기 기억으로 통합하는 과정에서 신경세포에 있는 ‘NMDA 수용체’가 중요한 역할을 한다. 이 수용체는 뇌의 학습, 기억, 공간 인식과 관련된 신경세포 연결 부위인 시냅스후 막에 위치한 특별한 종류의 이온채널 글루탐산 수용체다. 이 수용체가 활성화되면 칼슘 이온이 신경세포 안으로 들어가게 된다. 칼슘 이온의 농도 변화는 학습과 기억 형성에 중요한 역할을 하는 시냅스 가소성, 즉 신경 연결의 강도를 조절한다.

연구팀은 특정 조건에서만 통로가 되는 NMDA 수용체의 비선형적인 특징을 모사한 새로운 함수를 개발해 트랜스포머 모델에 적용했다. 그 결과 NMDA 수용체 특징을 모방한 AI 모델은 우리 뇌 속 해마의 장소세포처럼 위치를 인지하는 기능을 형성했고, 기존 모델보다 기억 통합 능력이 크게 향상됐다.

연구를 진행한 이창준 단장은 “이번 연구는 인공지능의 성능 향상뿐 아니라 인간의 뇌와 인공지능 간 연결성에 대한 이해를 확장했다는 점에서 중요한 의미가 있다”며 “뇌의 작동 원리를 더 깊게 이해하는 것을 바탕으로 더 발전된 인공지능 시스템을 개발할 수 있을 것”이라고 말했다.

차미영 CI도 “이번에 개발한 인공지능 모델을 통해 향후 인간과 유사한 방식으로 정보를 처리하고 기억하는 저비용 고성능 인공지능 시스템이 나올 것을 기대해본다”고 말했다.

이번 연구 결과는 12월 미국에서 열리는 세계 최고 권위 AI 학술대회인 ‘신경정보처리시스템학회(NeurIPS)’에 채택됐다.