두뇌를 모방한 AI. /딥마인드 제공

사람의 두뇌를 모방해 데이터 학습 속도를 획기적으로 높인 ‘초거대 인공지능(AI)’ 기술을 두고 글로벌 경쟁이 격화했다. 검색·챗봇·쇼핑·콘텐츠 등 정보기술(IT) 전 분야의 서비스 품질을 높여주는 이 기술을 선점하지 않으면 기술을 가진 경쟁사에 종속될 수밖에 없기 때문이다. 미국과 중국이 선두 경쟁을 벌이며 기술 등장 1년 만에 성능이 10배 향상됐다. 후발주자인 한국은 네이버·카카오·LG그룹이 토종 AI를 개발해 추격하고 있다.

16일 IT업계와 외신에 따르면, 초거대 AI 개발 경쟁에는 일론 머스크가 설립한 AI 연구소 ‘오픈AI’와 구글, 화웨이, 마이크로소프트(MS) 등 글로벌 빅테크는 물론 세계적인 딥러닝 AI ‘알파고’를 개발한 딥마인드까지 뛰어들었다.

12월 기준 기업별 초거대 AI의 파라미터 수. /그래픽=이은현

초거대 AI는 슈퍼컴퓨터의 도움을 받아 적은 데이터만으로 빠른 딥러닝(심층학습)이 가능하다. 이 때문에 다양한 분야에서 바둑의 알파고 수준의 전문성을 가질 수 있다고 평가된다. 실제로 오픈AI의 초거대 AI ‘GPT-3′는 적은 양의 영단어만 학습하고도 자연스러운 문장을 구사하는 모습을 보이면서 업계의 주목을 받았다. ‘GPT-3의 지혜(Wisdom_by_GPT3)’란 트위터 계정에서 ‘AI는 성공하면 일자리를 창출하고 실패하면 일자리를 파괴할 것이다’와 같은 기존에 없던 ‘격언’을 꾸준히 창작해 게시하고 있다.

GPT-3가 격언을 만들어 올리는 트위터 계정 캡처.

초거대 AI의 성능을 결정하는 대표적인 지표는 파라미터(매개변수)라는 양이다. 뇌에서 뉴런(신경세포) 간 정보 전달을 해주는 시냅스와 비슷한 역할을 한다. GPT-3의 파라미터 수는 1750억개다. 한 사람의 시냅스 수(100조개)와 비교하면 한참 적지만, 경쟁사의 모델이 속속 등장하면서 1년 만에 10배 수준으로 늘어났다.

올해 1월 구글은 1조6000억 파라미터의 ‘스위치 트랜스포머(Switch Transformer)’를, 5개월 후인 6월 중국 비영리 연구기관 베이징인공지능연구원(BAAI)은 1조7500억 파라미터의 ‘우다오(悟道·불교에서의 깨달음) 2.0′을 차례로 선보이며 조(兆) 단위 경쟁에 진입했다.

이들보다 아직 규모는 작지만 지난 5월 화웨이는 2070억 파라미터 규모의 ‘판구(盘古·중국 신화의 창세신) 알파’를, 10월 마이크로소프트(MS)와 엔비디아는 5300억 파라미터 규모의 ‘메가트론(Megatron)’을, 그리고 이달 8일엔 알파고를 개발한 딥마인드도 2800억 파라미터의 ‘고퍼(Gopher)’를 공개해 경쟁에 가세했다. 딥마인드는 AI의 검색 기능을 강화해 데이터 처리 속도를 높인 ‘레트로(RETRO)’ 기술을 적용, 적은 파라미터로도 기존보다 더 높은 성능을 낼 수 있다고 설명했다.

국내에선 지난 5월 네이버가 2040억개의 파라미터를 가진 최초의 한국어 모델 ‘하이퍼클로바(HyperCLOVA)’를 선보였다. 하반기부터 검색엔진·클로바노트(음성기록)·케어콜(코로나19 능동감시자 관리)·AI페인터(웹툰 자동채색) 등에 순차적으로 상용화하고 있다. 상품 리뷰 요약과 설명문 자동 작성, 버추얼휴먼(가상인간) 서비스 개발에도 활용한다. 2040억 파라미터 이상의 규모 확대 계획은 아직 없다. 네이버 관계자는 “당장은 상용화에 집중하고, 내년 하반기 메신저 라인과 2040억 파라미터 규모의 일본어 모델을 추가로 개발해 일본 시장에 진출한다”라고 말했다.

하이퍼클로바가 웹툰 밑그림을 자동으로 채색하는 모습. /네이버 제공
네이버의 초거대 AI '하이퍼클로바'와 나누는 대화 예시. 자연스러운 대화가 가능하다고 네이버는 소개했다. /네이버 제공

카카오는 전날 300억 파라미터의 한국어 모델 ‘민달리(minDALL-E)’를 공개했다. 하이퍼클로바처럼 한국어를 구사하는 걸 넘어 명령대로 그림을 그려주는 능력을 갖췄다. 구글 슈퍼컴퓨터를 도입해 6000억 파라미터로 늘리기로 했다. 카카오 관계자는 “내부적으론 이미 6000억 파라미터에 도달했지만 오픈소스(외부에 공개된 알고리즘)용으로 경량화한 모델을 먼저 공개했다”라고 말했다. 네이버보다 한발 늦은 대신, 외부 개발사도 활용할 수 있도록 알고리즘을 개방해 파트너를 일찍 확보함으로써 초거대 AI 생태계를 선점하겠다는 전략을 세웠다.

LG AI연구원은 지난 14일 3000억 파라미터 규모로 자체 개발한 ‘엑사원(EXAONE)’을 공개했다. 앞으로 1조 파라미터 이상으로 늘리는 게 목표다. 엑사원은 LG전자·LG화학·LG유플러스 등 계열사의 연구와 서비스에 적용된다. 100년치 화학 문헌 2000만건을 학습해 신소재·신물질을 발굴하는 식이다. 해외 문헌을 탐색해야 하는 만큼 네이버, 카카오와 다르게 한국어·영어를 모두 학습한 이중 언어 모델로 개발됐다.

LG의 초거대 AI '엑사원'이 그린 호박 모양의 모자. /LG 제공

파라미터만으로 초거대 AI의 성능이 결정되는 건 아니다. 다만 사람의 두뇌 시냅스 수가 100조개인 걸 감안하면 두뇌를 닮으려는 초거대 AI의 규모 성장은 당분간 계속될 것으로 전망된다. 진위 여부는 아직 확인할 수 없지만, 지난 9월 외신 와이어드는 미국 AI반도체칩 스타트업 ‘세레브라스(Cerebras)’가 자사 기술로 120억 파라미터를 구현할 수 있다고 주장했다고 보도했다.

기업의 투자 비용도 늘어날 전망이다. 외신에 따르면 GPT-3를 구축하고 학습시키는 데 든 비용은 수천만달러(수백억원)였다.