젠슨 황 엔비디아 최고경영자(CEO)./엔비디아

엔비디아가 인공지능(AI) 추론에 맞춰진 새 칩을 공개했다. 이와 함께 새 중앙처리장치(CPU)도 내놨다. AI 에이전트 시대에 맞는 인프라를 제공하겠다는 구상이다.

젠슨 황 최고경영자(CEO)는 16일(현지시각) 미국 캘리포니아주 새너제이 소재 SAP센터에서 진행한 엔비디아의 연례 개발자 회의(GTC 2026)의 기조연설을 통해 '그록(Groq)3 언어처리장치(LPU)'를 차세대 AI 칩 '베라 루빈'에 통합한다고 밝혔다.

이를 통해 '루빈' 그래픽처리장치(GPU)와 LPU의 역할을 나눠 방대한 데이터를 다루는 대규모 연산은 GPU가 맡고, 속도가 매우 빠른 LPU는 AI의 답변을 처리하도록 효율을 높인다는 구상이다. '베라 루빈'은 CPU인 '베라' 36개와 GPU '루빈' 72개를 하나로 구성해 기존 제품인 블랙웰 대비 추론 성능은 5배 높이고 토큰당 비용은 10분의 1 수준으로 낮춘 제품으로, 올해 출시된다.

황 CEO는 '루빈'의 다음 세대 GPU인 '파인만'도 소개했다. 파인만은 '로자'라는 새 CPU와 함께 구동된다. LP40 LPU를 탑재할 예정이다. 황 CEO는 "내년까지 엔비디아의 AI 칩 매출 기회가 최소 1조달러(약 1천500조원)에 달할 것"이라고 내다봤다.

황 CEO는 LPU와 베라 루빈의 결합을 통해 파라미터(매개변수)가 조 단위인 AI 모델의 추론 처리량을 35배 향상하고, 저지연(low latency) 추론 능력을 높일 수 있다고 설명했다. 엔비디아는 구체적으로 LPU 256개가 하나로 구성된 LPX 랙이 베라 루빈에 통합된다고 밝혔다. 이에 따라 베라 루빈 슈퍼컴퓨터의 부품은 지난 1월 CES 2026에서 발표했을 당시의 6종에서 LPU를 포함한 7종으로 늘었다.

황 CEO는 또 새 CPU '베라'와 이를 256개 탑재한 CPU 랙도 선보였다. 또 기존 x86 방식의 CPU 대비 성능을 1.5배, 에너지 효율이 2배 높였다는 게 회사 측 설명이다. 베라 CPU에는 엔비디아가 AI 실행을 위해 직접 설계한 '올림퍼스'(Olympus) 코어도 장착돼 x86 CPU 대비 3배의 메모리 대역폭을 제공한다.

엔비디아는 이런 제품을 통해 'AI 에이전트' 시장을 공략할 것으로 보인다. AI 에이전트는 일반적인 AI 챗봇과 달리 더 빠른 속도와 제어 능력이 요구된다. GPU로 데이터 처리 속도를 높이고, 일을 구체적으로 지시하는 역할은 LPU가 분담하는 구조다.