인공지능이 또 다른 인공지능에게 지식을 전수하는 과정을 형상화한 AI 생성 이미지. /KAIST

국내 연구팀이 인공지능(AI) 모델이 바뀌어도 기존 지식을 다시 처음부터 학습시키지 않아도 되는 기술을 개발했다. KAIST와 고려대 공동 연구팀은 서로 다른 AI 모델 간에도 학습된 지식을 그대로 전달할 수 있는 이른바 '트랜스미터(TransMiter)' 기술을 개발했다고 27일 밝혔다. 이번 연구는 AI 분야의 저명 국제 학술 대회인 'AAAI 2026′에서 구두 발표 논문으로 채택돼 지난 25일 발표됐다.

기존에는 AI 성능이 아무리 뛰어나도 새로운 모델이 등장하면 특정 분야의 지식을 다시 처음부터 학습해야 했다. 모델 구조가 조금만 달라져도 이전에 쌓은 경험과 노하우를 그대로 활용하기 어려웠기 때문이다.

연구팀은 이에 대한 해법으로 일종의 '지식 전수 구조'인 'TransMiter'를 개발했다. 이 기술은 기존처럼 지식을 통째로 다시 학습시키는 방식이 아니라, AI가 질문을 받았을 때 어떤 표현을 선택하고, 어떤 정보에 주목하며, 어떤 방향으로 결론을 내렸는지 그 결과값(출력)만을 정리해 다른 AI에 전달하는 방식이다. 비유하자면 '경력직 AI'가 그동안 많은 질문에 답변했던 요령과 판단 기준을 족집게 과외하듯 다른 AI에 전수하는 것이다.

예를 들어 한 AI가 '이런 질문엔 이런 방식으로 답하는 것이 효과적이다'라고 경험을 통해 학습했다면 'TransMiter'는 그 방식을 그대로 다른 AI에 가르쳐 주는 역할을 한다.

연구팀은 TransMiter를 적용한 결과, AI 모델의 크기나 구조가 달라도 지식 전달이 가능해졌고, 복잡한 재학습 과정도 크게 줄일 수 있게 됐다고 밝혔다.

연구팀은 이번 연구가 필요한 분야에 맞춰 거대언어모델(LLM)을 실시간으로 업데이트하는 이른바 '지식 패치(patch)' 기술로 진화할 수 있을 것으로 보고 있다. 김현우 KAIST 교수는 "초거대 언어 모델이 등장할 때마다 반복적으로 수행해야 했던 후학습(post-training) 비용을 크게 줄일 수 있고, 특정 분야 전문 지식을 손쉽게 추가하는 '모델 패치'가 가능해질 것"이라고 했다.