그래픽=정서희

글로벌 빅테크 기업 간 경쟁으로 생성형 인공지능(AI)이 빠르게 발전하면서 초거대언어모델(LLM) 파라미터(매개변수) 1조개 시대가 열리고 있다. 파라미터는 생성형 AI가 정보를 학습하고 기억하는 시냅스(신경연결) 역할을 한다. 파라미터 규모가 클수록 답변 수준이 높아진다.

전문가들은 네이버는 물론이고 자체 LLM을 기반으로 생성형 AI를 개발 중인 국내 IT 기업들이 마이크로소프트(MS), 구글 등 글로벌 빅테크 기업의 규모를 따라가기에 한계가 있는 만큼 특화형 모델로 승부해야 한다고 조언한다.

16일 최병호 고려대 인공지능연구소 교수는 조선비즈와의 통화에서 “네이버의 대화형 AI 서비스 ‘클로바X’를 사용해보고, 주변 전문가들과 논의해본 결과 하이퍼클로바X의 파라미터는 3000억~4000억개 수준으로 추정된다”고 밝혔다.

이는 하이퍼클로바X의 전 버전인 하이퍼클로바(파라미터 2040억개)의 1.5~2배 수준이다. 앞서 네이버는 지난달 24일 자체 LLM 하이퍼클로바X를 소개하면서 파라미터를 공개하지 않았다. 클로바X를 포함해 향후 네이버의 생성형 AI 서비스는 모두 하이퍼클로바X를 기반으로 구현된다.

성낙호 네이버클라우드 하어퍼스케일 AI 기술 총괄은 지난달 기자간담회에서 “파라미터 사이즈가 크면 클수록 좋은 모델이 나오는 건 맞다”면서도 “하지만 요즘 경쟁적인 분위기에서 이를 공개하는 것은 적절하지 않다”고 말했다.

일각에선 하이퍼클로바X의 파라미터 규모가 오픈AI의 ‘GPT-4′를 넘어서는 수준이었다면 네이버가 공개했을 것이라고 본다. GPT-4의 파라미터는 약 5000억개로 알려졌다.

최 교수는 “파라미터가 커질수록 생성형 AI의 성능이 좋아지는 것을 부정하는 사람은 아무도 없다”며 “다만 방대한 파라미터를 유지하기 위한 구조적, 비용적인 한계로 네이버가 원하는 만큼 규모를 키울 수 없었을 것”이라고 말했다. 이어 “네이버의 경우 AI 상업화를 위해 파라미터 규모보다는 자사의 애플리케이션 서비스와 연동을 위한 데이터 튜닝에 더 집중한 것으로 보인다”고 덧붙였다.

네이버가 최근 3~4년간 AI에 투자한 금액은 약 1조원 수준이다. 영국 컨설팅업체 써드브릿지는 지난 10년간 구글의 AI 투자액을 최대 2000억달러(약 267조원)로 추산했다. 구글은 지난 5월 공개한 LLM ‘팜2′에 이어 알파고를 개발한 자회사 딥마인드와 함께 차세대 LLM 모델인 ‘제미니(Gemini)’를 오는 11월 발표한다. 제미니는 1조개가 넘는 파라미터로 구성된 것으로 전해졌다. GPT-4의 2배 수준이다.

김두현 건국대 컴퓨터공학부 교수는 “AI 산업이 ‘쩐의 전쟁’이 되면서 네이버도 글로벌 빅테크 기업 수준을 따라가기가 벅찬데 다른 국내 기업은 상황이 더 어렵다”면서 “국내 기업들이 생성형 AI 시장에서 생존하기 위해서는 고도화된 한국어를 기반으로 특정 산업 분야의 서비스들과 결합하는 모델로 가야 한다”고 말했다.