권언오 SK하이닉스 부사장의 모습./SK하이닉스 제공

“고대역폭메모리(HBM)는 고객이 원하는 가치를 담은 제품으로 전문화(Specialized)되고, 고객 맞춤화(Customized)될 것입니다. 다양한 종류의 D램도 인공지능(AI)용 메모리로 사용될 것이고, 전통적인 특성 외 다양한 조건으로 특화된 소자 개발이 필요할 것입니다.”

28일 권언오 SK하이닉스 부사장이 SK하이닉스 뉴스룸과 진행한 인터뷰에서 이같이 말했다. 권 부사장은 지난해 단행된 임원 인사에서 SK하이닉스가 신설한 ‘AI 인프라’ 조직에 합류해 HBM 기술 로드맵을 완성하는 일을 맡고 있다.

HBM은 D램 여러 개를 수직으로 연결해 데이터 처리 속도를 끌어올린 고성능 메모리다. 방대한 데이터를 신속하고 끊임없이 처리해야 하는 생성형 인공지능(AI)을 구동하려면 HBM과 같은 고성능 메모리가 필요하다.

권 부사장은 “향후 AI용 메모리는 현재와 같은 데이터센터향 외에도 특정 목적에 맞춰 성능과 효율성을 높인 주문형 반도체(ASIC)나 고객 제품에 최적화한 온디바이스 형태로 확대될 것”이라고 내다봤다.

그러면서 그는 “HBM뿐 아니라 다양한 종류의 D램이 AI용 메모리로 사용될 것이고, 전통적 특성 외에 다양한 조건으로 특화된 소자 개발이 필요할 것”이라며 “이런 격변기에는 여러 기술을 융합해 시너지를 낼 수 있도록 시야를 넓히고, 도전이 실패하더라도 그 경험을 바탕으로 다시 도전하는 자세가 중요하다”고 말했다.

권 부사장은 D램 개발 연구위원으로 있던 2022년 세계 최초로 모바일용 D램인 LPDDR에 공정 속도를 높이면서도 소모 전력을 줄이는 HKMG 공정을 도입했고, 초고속·초저전력 특성을 동시에 구현한 LPDDR5X와 LPDDR5T 개발을 성공적으로 이끌었다.

HKMG 공정은 유전율(K)이 높은 물질을 D램 트랜지스터 내부의 절연막에 사용해 누설 전류를 막고 정전용량(Capacitance)을 개선한 차세대 공정이다. 속도를 빠르게 하면서도 소모 전력을 줄일 수 있다.