화웨이의 어센드 AI 칩./화웨이

중국 인공지능(AI) 업계가 엔비디아 그래픽처리장치(GPU)에 대한 의존도를 낮추기 위해 화웨이의 AI 반도체 '어센드(Ascend)' 생태계로 이동하고 있다. 엔비디아 GPU를 단기간에 완전히 대체하기는 어렵지만 알리바바, 텐센트 등 중국 빅테크의 내부 추천·광고·검색·AI 추론 서비스부터 화웨이 칩으로 옮기는 시나리오는 현실성이 커지고 있다.

5일 파이낸셜타임스(FT)를 비롯한 주요 외신에 따르면 화웨이는 올해 AI 칩 매출이 기존 주문만으로 120억달러를 넘어설 것으로 예상된다. 이는 2025년(75억달러)보다 60% 증가한 수치다. AI 칩 선두주자인 엔비디아가 미국과 중국의 규제 장벽에 직면하자 화웨이는 자체 칩 제조 역량을 공격적으로 확대해 왔다.

화웨이가 AI 칩 사업을 확대하는 방식에 대해 업계에선 구글이 자체 AI 반도체인 텐서처리장치(TPU)로 엔비디아 GPU를 대체하는 방식과 유사하다는 분석을 내놓고 있다. 구글은 검색, 광고, 유튜브, 지메일, 제미나이 등 자사 서비스에 맞춰 TPU를 설계하고 데이터센터에 대규모로 배치해 엔비디아 의존도를 낮춰왔다.

AI 인프라는 단순히 칩의 하드웨어 성능만으로 규정되지 않는다. 어떤 AI 모델을 돌릴지, 어떤 개발도구를 쓸지, 데이터센터 안에서 수천 개 칩을 어떻게 연결할지까지 함께 맞아야 가장 효율적인 성능을 발휘할 수 있다. IT 업계 관계자는 "아무리 성능이 뛰어난 GPU라도 소프트웨어와의 최적화가 제대로 이뤄지지 않는다면 성능의 절반도 발휘하지 못한다"며 "반대로 말하면 소프트웨어와 실시간 서비스에 최적화가 가능하다면 조금 낮은 성능의 칩도 기대 이상의 아웃풋을 기대할 수 있다"고 설명했다.

구글처럼 한 회사가 칩, 모델, 클라우드, 서비스, 개발도구를 모두 통제하는 구조는 아니지만, 화웨이와 중국 빅테크도 비슷한 방향을 지향하고 있다. 화웨이는 AI 칩과 서버 인프라를 공급하고, 딥시크 같은 모델 개발사는 화웨이 칩에 맞춘 모델을 내놓으며, 알리바바 클라우드와 텐센트 클라우드는 이를 API(응용 프로그램 인터페이스) 서비스로 제공하는 식이다. 여러 기업이 느슨하게 역할을 나눠 중국형 AI 인프라를 만드는 구조다.

최근엔 이 같은 추세가 더 뚜렷해지고 있다. 로이터에 따르면 딥시크가 화웨이 어센드 950 계열 칩에서 구동되는 V4 모델을 내놓은 뒤, 바이트댄스와 텐센트, 알리바바 등 중국 주요 인터넷 기업들이 화웨이에 신규 주문을 문의하고 있다. 알리바바 클라우드와 텐센트 클라우드는 딥시크 V4 출시 당일 관련 서비스를 제공하기 시작했다. 수많은 개발자와 기업 고객이 이 서비스를 쓰면, 그 뒤에서 실제 연산을 처리하는 화웨이 칩 수요도 함께 늘어난다.

다만 한계도 있다. 엔비디아의 진짜 강점은 GPU 자체보다 쿠다(CUDA) 생태계에 있다. 개발자들은 CUDA 위에서 AI 모델을 학습시키고, 추론 서버를 운영하고, 오류를 잡고, 성능을 끌어올리는 데 익숙하다. 화웨이도 자체 AI 소프트웨어 기반인 'CANN'을 앞세우고 있지만, CUDA가 쌓아온 안정성과 개발자 경험을 따라잡으려면 시간이 필요하다는 설명이다.

칩 제조 능력도 미 정부의 설비 반입 제한에 제약이 여전하다. 화웨이는 올해 어센드 950PR 약 75만개 출하를 계획하고 있지만, 첨단 반도체 제조 장비 제한 때문에 위탁생산을 맡고 있는 SMIC의 생산량이 수요를 따라가지 못할 것이라는 게 업계 관계자들의 분석이다.