중국의 인공지능(AI) 스타트업 딥시크가 내놓은 생성형 AI ‘딥시크 R1′ 충격파가 연일 이어지고 있다. 저렴한 비용으로 챗GPT, LLaMa 같은 글로벌 빅테크의 생성형 AI에 맞먹는 성능을 보여주면서 고성능 그래픽처리장치(GPU) 무용론까지 나왔다. 딥시크 R1 공개 이후 뉴욕 증시에서 엔비디아 주가가 급락했고, 설 연휴를 마치고 31일 개장한 국내 증시에서도 SK하이닉스(000660) 주가가 10% 가까이 빠지고 있다.
딥시크의 위력은 뛰어난 성능보다도 저렴한 비용에 있다. 오픈AI나 메타가 개발한 생성형 AI보다 저렴한 비용으로 비슷한 수준의 성능을 내면서 생성형 AI 개발의 판도를 바꿨다. 홍콩대학교의 왕옌보(Yanbo Wang) 교수는 네이처와의 인터뷰에서 “딥시크는 막대한 자본과 하드웨어를 투입하는 실리콘밸리식 방식이 아니더라도 대형언어모델을 개발할 수 있다는 청사진을 제시했다”며 “이로 인해 수많은 새로운 대형언어모델이 등장할 수 있는 길을 열었다”고 평가했다.
딥시크는 딥시크 R1 출시 전 개발한 훈련 모델인 ‘V1’에 GPU 2048개를 사용했다고 밝혔다. GPU의 총 구매 비용은 약 80억원에 불과하다. 오픈AI GPT-4의 훈련 비용이 약 1447억원으로 알려진 것과 비교하면 18분의 1에 불과하다. 딥시크 V3는 엔비디아 H800 칩 2000여개를 썼는데, 이는 메타가 지난 7월 공개한 Llama 3.1 405B가 H100 칩 1만6000여개를 쓴 것에 비해 엄청나게 비용을 낮춘 것이다.
H800 칩은 최신 제품인 H100 칩에 비해 성능이 절반 수준이고 그만큼 가격도 낮다. IT 업계가 AI 성능을 높이기 위해 고성능 GPU 개발에 열을 올리고 있지만, 딥시크는 저렴하고 성능이 낮은 칩으로도 비슷한 수준의 성능을 낼 수 있다는 걸 보여준 셈이다.
저렴한 비용으로 개발한 탓에 확장 가능성도 크다. 딥시크는 프로그래밍 코드를 만들어주는 ‘딥시크 코더’도 무료로 공개했다. 딥시크 코더는 소프트웨어 개발을 위해 프로그래밍 코드를 만드는 생성형 AI다. 딥시크가 무료로 공개한 코더는 성능이 GPT-4보다도 좋다.
딥시크가 저렴한 비용으로도 뛰어난 성능을 낼 수 있던 것은 강화학습과 콜드 스타트(Cold-Start) 데이터 학습이 꼽힌다. 딥시크 연구진은 지난 22일 논문 사전공개 사이트 ‘아카이브(arXiv)’에 딥시크 R1의 개발 과정을 소개하면서 “초기 지도 학습 없이 순수하게 강화학습 만으로 모델을 훈련해 강력한 추론 능력을 갖췄다”고 밝혔다.
기존 LLM 모델은 강화학습 이전에 지도학습을 통해 효율성을 올리는 방식을 사용했다. 지도학습은 개발자가 이미 정답을 알려주고, 이를 기반으로 추론 능력을 얻는 방식이다. 반면 딥시크는 사람이 선별한 데이터를 학습하는 것과 달리, 스스로 데이터를 찾아 배우는 강화학습만을 이용했다. 지도학습을 하지 않으면 강화학습에서 시행착오를 거칠 확률이 높아진다. 딥시크 연구진은 이런 단점을 강화학습에서 옳은 추론을 했을 때 보상을 주는 방식으로 보완했다.
공득조 광주과학기술원(GIST) AI정책전략대학원 교수는 “이전에 있던 기술들을 얼마나 효과적으로 최적화를 잘했는 지가 딥시크 알고리즘의 핵심이 될 것”이라며 “연구진의 주장이 맞는다면 딥시크는 어려운 최적화 문제를 잘 구현해낸 결과로 보인다”고 말했다.
다만 실제 연구진의 주장만큼 효율적으로 데이터를 학습해 뛰어난 성능을 내고 있을지는 아직 확신할 수 없다는 것이 전문가들의 의견이다. 실제로 많은 연구자들이 딥시크가 논문에서 말한 성능을 내거나 GPT를 뛰어넘는다고 보기 어렵다는 의견을 내놓고 잇다.
공 교수는 “연구진의 주장이 사실이라고 하더라도 실제로는 백그라운드에서 어마어마한 규모의 데이터센터의 도움을 받고 있을 가능성이 크다고 보인다”며 “이미 나왔던 LLM을 참고했던 만큼 아무것도 없는 밑바닥에서 그 정도 비용으로 완성했다고 보기는 어렵다”고 말했다.
딥시크의 성공 저변에는 AI 인재에 대한 중국 정부의 선제적인 투자가 있었다는 분석도 나온다. 중국 정부는 2030년까지 AI 분야에서 선두 주자가 되겠다고 지난 2017년 발표한 바 있다. 이를 위해 440여개 대학에 AI 특화 학부를 개설했고, 장학금과 연구비, 산학협력 등 다양한 지원 대책을 AI 분야에 집중했다. 딥시크 창업자인 량원펑은 중국 국내파를 중용한 것으로 알려져 있다. 조지타운대학교에서 중국 AI 인재 정책을 연구하는 제이컵 펠드고이스(Jacob Feldgoise)는 네이처에 “국가 차원에서 AI 모델 개발 생태계를 촉진하기 위한 정책들이 펀딩과 인재 유치 모두에 있어 딥시크 같은 회사들에게 도움이 되었을 것”이라고 말했다.
한국도 딥시크를 키운 중국의 AI 인재 정책에 주목해야 한다는 목소리가 있다. 문형남 숙명여대 글로벌융합학부 교수(한국AI교육협회 회장)는 “딥시크의 등장은 세계 AI 시장에 큰 변화를 가져올 것으로 보인다”며 “이는 우리 기업에 위기이자 기회가 될 수 있다”고 말했다.
또 “딥시크의 성공은 첨단 기술 인재의 중요성을 다시 부각시키고 있다”며 “데이터 보호와 기술 윤리에 대한 논의도 중요해지고 있다”고 덧붙였다.
공 교수는 “데이터를 무분별하게 수집할 수 있는 중국과 달리 한국을 비롯한 대부분 국가는 데이터 수집부터 어려움이 크다”며 “대량의 데이터를 활용해 최적화를 할 수 있었던 것은 그만큼 뛰어난 인재들이 있었던 덕분”이라고 말했다.
이어 “한국은 주52시간 근무제와 갈수록 쉬워지는 과학·수학 교육 등 인재 양성이 점차 어려워지는 환경에 있다”며 “딥시크 쇼크를 계기로 국내 AI 인재 양성과 연구 문화가 얼마나 효과적인지 다시 돌아볼 필요가 있다”고 말했다.