글로벌 인공지능(AI) 연구소 오픈AI가 개발한 대화형 챗봇 AI ‘챗GPT(ChatGPT)’의 등장으로 초거대 생성형 AI 기술이 큰 관심을 받고 있다. 하지만 사람들의 관심과 함께 이용량이 많아지면서 챗GPT의 속도가 오히려 떨어지는 부작용도 나타나고 있다. 과학기술계에선 초거대 생성형 AI 기술의 향방이 결국 하드웨어인 AI반도체로 운영비를 얼마나 낮추느냐에 달려 있다고 보고 있다.
한국공학한림원은 10일 ‘대한민국 초거대 AI 시대를 열어가기 위한 AI반도체 기술’이라는 주제로 웨비나를 개최했다. 발표자로는 이동수 네이버클라우드 이사와 박성현 리벨리온 대표, 김주영 한국과학기술원(KAIST) 전기전자공학부 교수, 윤두희 과학기술정보통신부 정보통신방송기술정책과장이 나섰다.
이번 웨비나에서는 챗GPT의 운영비를 두고 AI반도체 개발의 필요성이 제기됐다. 최근 오픈AI 최고경영자(CEO) 샘 알트만은 챗GPT가 하나의 답변을 내놓는 데 ‘한 자릿수 센트(Single-digit cent)’의 비용이 들어간다고 밝혔다. 출시 두 달 만인 지난달 활성 사용자 수가 1억명을 기록한 점을 고려하면 연 수조 원의 운영비가 들어갈 것이라는 전망이 나온다.
이동수 이사는 “챗GPT 답변 비용은 일반적인 텍스트 기반 검색보다 100~200배 더 비싼 수준”이라며 “하루 1500만명이 챗GPT를 사용한다고 가정하면 하루에 수십억 원, 1년에 수조 원이 운영비로 들어간다는 계산이 나온다”고 말했다.
거대 AI에 주로 사용되는 반도체 병렬 처리 방식 그래픽처리장치(GPU)의 비용이 너무 비싸다는 의견도 있었다. 현재 사용되고 있는 GPU는 엔비디아가 80% 이상의 점유율을 차지하고 있다. 김주영 교수는 “대부분 AI에 GPU를 쓰고 있지만, 말도 안 되게 비싼 가격”이라며 “또 무겁고 큰 디바이스라서 새로운 시장을 GPU로 따라가긴 어렵다”고 설명했다.
정부는 초거대 AI에 적용할 수 있는 AI반도체를 개발하기 위해 지난해 12월부터 ‘K-클라우드’ 사업을 추진하고 있다. 초거대 AI의 전력 소모와 과도한 운영비를 해결하기 위해 국산 고성능·저전력 AI반도체를 개발한다는 계획이다. 개발한 AI반도체는 데이터센터나 AI 서비스에 적용돼 실증 사업을 거칠 예정이다.
윤두희 과기정통부 과장은 “데이터 저장 역할을 하는 메모리 반도체에 연산 기능을 넣어 클라우드가 전반적으로 저전력을 지향할 수 있도록 추진하고 있다”며 “데이터센터 등으로 실증 사업을 거쳐 안전, 교육, 국방 분야에도 적용할 계획”이라고 말했다.