옴니익스텐드 기반 메모리 풀 환경에서 AI 학습 성능을 분석하는 ETRI 연구진./ETRI

초대형 인공지능(AI)을 학습시킬 때 반복해서 부딪히는 난제가 있다. 모델이 커질수록 그래픽처리장치(GPU)가 감당해야 할 데이터가 폭증하면서, GPU 메모리가 금세 꽉 차 학습이 느려지거나 아예 멈추는 '메모리 부족' 문제가 자주 발생한다. 국내 연구진이 이 문제를 구조적으로 풀 수 있는 새로운 기술을 개발했다고 밝혔다.

한국전자통신연구원(ETRI)은 8일 초대형 AI 학습 환경에서 가장 큰 걸림돌로 꼽히는 GPU 메모리 한계와 데이터 병목 현상을 줄일 수 있는 메모리 기술 '옴니익스텐드(OmniExtend)'를 개발했다고 발표했다.

초대형 AI 모델을 학습할 때는 모델 파라미터뿐 아니라 학습 과정에서 생기는 중간 계산값, 최적화에 필요한 정보까지 모두 메모리에 올라간다. 이때 GPU 메모리가 부족하면 데이터를 계속 옮겨야 하고, 그 과정에서 지연이 생겨 학습 속도가 떨어진다. 결국 더 큰 모델을 학습하려면 비싼 장비를 추가로 붙이거나, 여러 대의 GPU에 작업을 쪼개면서 통신 부담을 감수해야 하는 경우가 많았다.

ETRI가 개발한 옴니익스텐드는 이런 제약을 줄이기 위해 표준 네트워크 기술인 이더넷(Ethernet)을 활용한다. 핵심은 여러 서버와 가속기(GPU)마다 따로 존재하던 메모리를 네트워크로 연결해 마치 하나의 대용량 메모리처럼 공유하도록 만드는 구조다.

쉽게 말해, 각 장비에 나뉘어 있던 메모리를 한데 모아 큰 메모리 풀(pool)처럼 쓰는 방식이다. 이 구조가 구현되면 AI 학습에 필요한 메모리를 상황에 맞게 더 유연하게 확보할 수 있고, 특정 장비의 메모리 한계에 학습 규모가 발목 잡히는 문제도 완화될 수 있다.

ETRI는 옴니익스텐드가 데이터 이동 지연을 최소화해 AI 학습 속도를 끌어올리는 데 도움이 될 수 있다고 설명했다. 또 기존처럼 장비를 통째로 교체하지 않고도 네트워크 기반으로 메모리를 확장하는 방향이어서, 데이터센터 구축·운영 비용 절감 효과도 기대된다고 덧붙였다.

특히 이더넷 스위치를 이용해 물리적으로 떨어진 다수의 장비를 하나의 메모리 풀로 묶을 수 있다는 점에서, 초대규모 AI 환경에 필요한 확장성(스케일아웃) 측면에서도 경쟁력이 있다는 평가가 나온다.

ETRI는 해당 기술을 지난해 5월 프랑스 파리에서 열린 'RISC-V 서밋 유럽 2025'와 미국 샌타클라라에서 개최된 'RISC-V 서밋 노스 아메리카 2025'에서 잇따라 공개해 높은 관심을 받았다고 전했다.

김강호 ETRI 초성능컴퓨팅연구본부장은 "향후 새로운 과제 기획을 통해 신경망처리장치(NPU)와 가속기 중심의 메모리 인터커넥트 기술 연구를 본격 확대할 계획"이라며 "글로벌 AI·반도체 기업의 차세대 시스템에 본 기술이 적용될 수 있도록 기술 고도화와 국제 협력을 지속하겠다"고 말했다.