SK하이닉스가 지난해부터 양산하고 있는 HBM3. /SK하이닉스 제공

인공지능(AI) 챗봇인 ‘챗GPT 열풍’이 전 세계를 강타하기 시작하면서 한국과 미국, 중국의 주요 빅테크 기업이 챗GPT 시장 공략에 앞다퉈 뛰어들고 있다. 구글, 마이크로소프트(MS), 중국 바이두를 비롯해 네이버도 챗GPT 시장 진입을 선언한 가운데 중앙처리장치(CPU), 그래픽처리장치(GPU)와 짝을 이뤄 서버 성능을 비약적으로 끌어올릴 수 있는 고대역폭메모리(HBM)에 대한 주문량이 크게 늘고 있는 것으로 알려졌다.

10일 반도체업계에 따르면 올해 1분기 들어 삼성전자(005930), SK하이닉스(000660) 등 세계 HBM 시장을 장악하고 있는 국내 대표 메모리 반도체 기업들에 HBM 납품과 관련한 문의가 폭발적으로 증가했다. 특히 SK하이닉스가 1세대 제품부터 줄곧 HBM 분야에서 기술 리더십을 발휘해온 만큼 대형 고객의 러브콜이 쇄도하고 있는 것으로 전해졌다.

HBM은 D램을 실리콘관통전극(TSV) 기술을 적용해 집적회로(다이)를 적층시키는 방식으로 데이터 전송률을 크게 높인 제품이다. 그동안 HBM은 고성능 컴퓨팅(HPC)이나 GPU 기반 딥러닝(심층학습) 기기 등에 데이터의 고속 처리를 위해 주로 도입돼 왔다. 최신 제품인 HBM3는 초당 819GB(기가바이트)의 데이터를 처리한다. 이는 풀HD 영화 163편을 1초에 전송하는 수준으로 현존하는 D램 중 최고 속도다. 최근에는 인텔이 최신 서버용 CPU 사파이어 래피즈를 출시하며 HBM을 메인메모리로 지원한다고 밝히기도 했다.

HBM은 기존 D램의 한계를 보완할 수 있는 유력한 차세대 메모리 제품으로 꼽힌다. CPU, GPU의 성능은 해마다 비약적으로 상승해왔지만, 이를 떠받치는 메모리 반도체의 성능 향상은 상대적으로 뒤처져 왔다. 이 가운데 HBM이 CPU, GPU와 메모리의 성능 격차로 인한 병목현상을 없앨 수 있는 대안으로 부상했다.

HBM의 유일한 단점은 비싼 가격이다. 성능은 뛰어나지만 생산공정이 복잡하고 고난도의 작업이 필요해 평균판매단가(ASP)가 최고성능 D램의 최소 3배 이상이다. 이전 세대 제품인 HBM2의 경우 16Gb(기가비트) D램 기준으로 최신 제품의 2배 이상이었고 최근 SK하이닉스가 엔비디아 등에 공급하고 있는 HBM3의 경우 최대 5배까지 가격이 치솟은 것으로 알려졌다. 메모리 반도체 기업 입장에서는 공급할수록 이익률이 크게 남는 고부가가치 영역인 셈이다.

인공지능 로봇이 수식이 가득 써 있는 칠판 앞에서 강의를 하고 있다. 앞으로 이런 일이 실제로 일어날지 모른다. 챗GPT가 만든 의학 논문 초록을 과학자들이 3분의 1은 걸러내지 못하는 것으로 나와 과학계에서 논란이 되고 있다. /Pixabay 제공

특히 세계 최대 GPU 기업인 엔비디아 역시 자사 GPU와 짝을 이룰 HBM3 제품을 SK하이닉스에 적극적으로 요청하고 있는 것으로 알려졌다. 업계 고위 관계자는 “현재 엔비디아는 자사의 서버용 GPU 제품 대부분에 SK하이닉스의 HBM3를 탑재하고 있다”며 “인텔 역시 사파이어래피즈를 내놓으며 SK하이닉스의 HBM3를 기본으로 다양한 서버용 제품을 마케팅하고 있다”고 설명했다.

SK하이닉스는 지난 2013년 AMD와 함께 세계 최초의 HBM 제품을 개발해 양산하는 데 성공했다. 이후 삼성전자가 2세대 제품을 먼저 양산하면서 빠르게 추격해왔지만, 인텔 출신의 이석희 전 대표이사가 D램개발부문장(부사장)을 맡으며 다시 빠른 속도로 기술 경쟁력을 끌어올려 HBM3를 가장 먼저 안정화하는데 성공했다.

시장조사업체 가트너에 따르면 2020년 220억달러(약 27조원) 규모였던 AI 반도체 시장 규모는 올해 553억달러(약 69조원) 규모로 2.5배 이상 커질 것으로 전망된다. 오는 2026년에는 861억달러(약 107조원)까지 성장할 것으로 예상된다.