한국과학기술원(KAIST)이 그래프 신경망 기반 인공지능 추론 병목을 줄인 전용 반도체 기술을 내놨다. 카이스트는 전기및전자공학부 정명수 교수 연구팀이 그래프 전처리 단계의 지연 문제를 해결한 적응형 AI 가속기 '오토GNN'을 세계 최초로 개발했다고 5일 밝혔다.
연구팀은 AI 서비스 지연의 핵심 원인이 추론 이전의 그래프 전처리 과정에 있다고 보고, 데이터 연결 구조가 바뀌는 환경에서도 회로 구성이 스스로 최적화되도록 설계했다. 기존 그래픽처리장치(GPU)가 복잡한 관계형 데이터를 정리하는 과정에서 연산 비효율과 병목이 발생하는 한계를 보완한 것이다. 또 데이터 규모와 형태에 맞춰 내부 모듈을 동적으로 재배치해 처리량 변동이 큰 실제 서비스 환경에서도 성능 저하를 줄였다.
성능 검증 결과 오토GNN은 엔비디아 고성능 GPU인 RTX 3090 대비 추론 처리 속도가 2.1배 빨랐고, 일반 CPU와 비교하면 9배 빠른 성능을 보였다. 에너지 소모는 CPU 대비 3.3배 낮아 고속 처리와 전력 효율을 동시에 확보했다는 평가다. 연구팀은 이 기술이 온라인 영상 추천, 금융사기 탐지, 보안 이상징후 분석처럼 복잡한 관계 데이터를 실시간으로 다뤄야 하는 서비스에 즉시 적용 가능하다고 설명했다.