인공지능(AI) 경쟁이 치열해지는 가운데 앤트로픽, 딥시크 등 생성형 AI 후발주자를 중심으로 AI 모델의 규모를 무작정 키우는 대신 알고리즘 효율을 높이는 전략으로 차별화를 꾀하는 기업이 늘고 있다. 이는 AI 산업을 지배하고 있는 AI 모델 대형화 흐름과 반대되는 행보다.
오픈AI, 구글, 메타 등 주요 AI 기업들은 막대한 자금을 AI 모델 학습, 대규모 데이터센터 구축, 차세대 반도체 확보 등에 투입했다. 그러나 이런 무차별적인 규모 확장이 과도한 차입과 AI 거품 우려를 키우고 장기적으로 지속 가능하지 않다는 지적이 나오자, 일부 기업들이 저비용·고효율 전략으로 선회하는 모습이다. 이들은 적은 자원과 낮은 비용으로 고성능 AI를 구현하는 이른바 '가성비(가격 대비 성능)'를 경쟁력으로 내세워 성장을 도모한다는 계획이다.
5일 업계에 따르면 '오픈AI 대항마'로 불리는 미국 AI 기업 앤트로픽의 공동 창업자인 다니엘라 아모데이 최고경영자(CEO)는 최근 CNBC와의 인터뷰에서 자본 지출을 제한하고 컴퓨팅(연산) 자원 대비 높은 AI 성능을 구현하는 방식으로 AI 경쟁에서 승부를 보겠다고 밝혔다. 아모데이 CEO는 "적은 자원으로 더 큰 성과를 내자(Do more with less)가 앤트로픽의 핵심 전략"이라며 "앤트로픽이 보유한 컴퓨팅 자원과 자본은 경쟁사의 일부 수준에 불과하지만, 최근 몇 년간 가장 강력하고 성능이 뛰어난 AI 모델을 지속적으로 선보였다"고 말했다.
앤트로픽은 앞으로 AI 모델의 경쟁력은 방대한 사전학습(pre-training) 규모가 아니라 고품질 학습 데이터를 기반으로 추론 능력을 끌어올리는 사후 학습(post-training) 기술이 좌우할 것이라고 전망했다. 이를 통해 투입한 컴퓨팅 자원 대비 AI 성능을 높인다는 구상이다. 특히 기업 고객이 AI 모델을 보다 저렴한 비용으로 운영하고, 실제 업무에 대규모로 손쉽게 적용할 수 있도록 설계하는 게 중요하다고 아모데이 CEO는 강조했다.
이는 앤트로픽의 기업 중심 전략과도 궤를 함께한다. 실제 앤트로픽은 돈이 되는 기업용 AI 판매에서 지난해 챗GPT 개발사 오픈AI를 제치고 1위를 기록했다. 미국 벤처캐피털인 멘로 벤처스가 지난달 발간한 '연례 기업 내 생성 AI 현황 보고서'에 따르면 앤트로픽의 지난해 기업용 거대언어모델(LLM) 시장 점유율은 40%로, 전년(24%)과 비교해 큰 폭 증가했다. 소비자용 AI 시장에서 압도적인 1위를 차지하고 있는 오픈AI의 기업용 AI 시장 점유율은 27%에 그쳤고, 구글이 21%로 뒤를 이었다.
AI 코딩 시장에서도 앤트로픽은 54%의 점유율로 오픈AI(21%)와 구글(11%)을 앞섰다. 코딩 전문 AI 도구인 '클로드 코드'가 개발자를 중심으로 호응을 얻으면서 널리 사용된 영향이다. 기업용 AI 시장을 집중 공략한 결과, 앤트로픽 매출은 최근 3년 연속으로 전년 대비 10배씩 성장했다.
아모데이 CEO가 '투입한 컴퓨팅 자원 대비 성능 개선'을 강조한 것은 이르면 올해로 예상되는 앤트로픽의 기업공개(IPO)를 의식한 발언이라는 분석도 나온다. 앤트로픽은 지난해 11월 마이크로소프트와 엔비디아의 투자를 받으며 3500억달러(약 505조원)의 기업가치를 인정받았고, 최근 상장 준비에 돌입했다. 강력한 경쟁자인 오픈AI와 비슷한 시점에 상장을 추진하는 상황에서 양사의 재무 상태와 기술, 전략이 시험대에 오르게 된다. 투자자들이 향후 장기 수익성과 효율성을 요구할 상황에 대비해 앤트로픽이 1조4000억달러(약 2000조원)에 육박하는 AI 인프라 투자 계획을 발표한 오픈AI와 달리 '저비용 고효율'을 핵심 전략으로 내세운 것으로 풀이된다.
지난해 초 저비용 고성능 AI로 전 세계에 충격을 준 중국 딥시크도 보다 효율적으로 AI 모델을 개발할 수 있는 방법을 최근 논문을 통해 발표했다. 량원펑 창업자가 공동 저자로 참여한 논문에서 딥시크는 '매니폴드 제약 초연결' 개념을 소개했다. AI 모델 학습에 들어가는 연산 자원과 에너지 소모를 크게 줄이면서도 대규모 확장이 가능한 새로운 AI 학습법인데, 모델 자원을 6.7%만 늘려 성능을 크게 높일 수 있다는 내용이 골자다.
업계에서는 딥시크가 이번 논문으로 차세대 모델 'R2' 출시를 예고했다고 해석하고 있다. 딥시크는 그동안 주요 모델을 공개하기 전에 관련 논문을 먼저 발표해왔기 때문이다. 딥시크를 비롯한 중국 AI 기업들이 엔비디아의 고성능 그래픽처리장치(GPU)에 접근할 수 없는 상황에서 미국과 경쟁하기 위해 비용을 최대한 낮추고 AI 모델 효율을 높이는 방식으로 대응하고 있는 것으로 보인다.
국내에서도 지난달 말 공개된 '국가대표 AI' 선발 발표회에서 기업들이 경제성과 효율을 강조했다. LG AI연구원 컨소시엄은 자체 개발한 독자 AI 파운데이션 모델 'K-엑사원(EXAONE)'이 상황에 따라 일부 매개변수만 선택해 사용하는 전문가혼합구조(MOE)를 사용해 비용을 절감하고 "하이브리드 어텐션 기술을 적용해 기존 엑사원 4.0 대비 추론 효율성을 높이면서도 메모리 요구량과 연산량을 70% 줄였다"고 설명했다. NC AI 컨소시엄은 AI 모델 'VAETKI(배키)' 역시 MOE를 채택해 기존 모델 대비 메모리 사용량을 최대 83% 줄이고 연산 속도를 높여 GPU 인프라가 부족한 산업 현장에서도 활용이 가능하다고 했다.