국내 연구진이 생성형 인공지능(AI)의 연산 속도를 끌어 올릴 수 있는 반도체를 개발했다. LPU라고 불리는 이 반도체를 사용하면 엔비디아의 GPU보다 50% 높은 성능을 낼 수 있다./KAIST

국내 연구진이 생성형 인공지능(AI)의 연산 성능을 끌어올릴 수 있는 반도체 개발에 성공했다. 생성형 AI는 챗GPT의 등장으로 최근 큰 주목을 받으면서 관련 서비스가 연이어 출시되고 있는 만큼 세계 기술 시장에서 경쟁력을 갖췄다는 평가가 나온다.

김주영 한국과학기술원(KAIST) 전기및전자공학부 교수가 이끄는 연구진이 챗GPT 같은 거대 언어 모델의 추론 연산을 가속할 수 있는 AI 반도체를 개발했다고 4일 밝혔다.

미국의 AI 연구기업 오픈AI가 지난해 11월 처음 공개한 챗GPT는 자연어처리 모델로 마치 사람이 말을 하거나 글을 쓰듯이 언어를 만들어낸다. 생성형 AI라고 부르는 이 기술은 언어뿐 아니라 음성, 영상, 동영상에도 적용할 수 있어 콘텐츠 산업의 차세대 기술로 꼽히고 있다.

챗GPT가 연산할 때 사용하는 파라미터는 1750억개에 달한다. 앞서 공개한 GPT-1는 1억개, GPT-2는 15억개 수준이다. 이처럼 AI의 성능을 높이기 위해서는 연산량이 많아져야 하지만 이를 뒷받침할 반도체의 성능에는 한계가 있는 상황이다.

KAIST 연구진은 거대 언어 모델의 추론 연산을 효율적으로 가속할 수 있는 AI 반도체 ‘LPU’를 개발해 이런 문제를 해결했다. 메모리 대역폭 사용을 극대화하고 연산을 빠르게 할 수 있는 엔진을 갖췄다. 자체 네트워크 시스템도 내장해 확장성도 높였다.

LPU 기반의 가속 전용 서버는 대표적인 AI 반도체 기업 엔비디아의 A100을 기반으로 한 슈퍼컴퓨터보다 뛰어난 성능을 보였다. 성능은 50% 가량 향상됐으며 가격대비 성능은 2.4배 좋아졌다.

최근 생성형 AI 서비스가 급격히 증가하면서 데이터센터에 수요도 커지는 만큼 고성능 그래픽처리장치(GPU)를 대체할 수 있을 것으로 기대를 모은다. 뛰어난 성능을 인정받아 지난 달 12일 미국 샌프란시스코에서 열린 ‘국제 반도체 설계 자동화학회(DAC)’에서 공학부문 최고 발표상을 수상하기도 했다.

김 교수는 “미래 거대 인공지능 연산을 위한 새로운 연산장치로 글로벌 시장을 개척하겠다”며 “대기업보다 우위에 있는 기술력을 선점해 나갈 것”이라고 말했다.

김주영 한국과학기술원(KAIST) 전기및전자공학부 교수./KAIST