하이퍼클로바X가 차트를 해석하는 모습. /네이버 제공

네이버는 대화형 인공지능(AI) 에이전트 클로바X(CLOVA X)가 오는 27일 서비스 업데이트를 통해 시각 정보 처리 능력을 새롭게 추가한다고 22일 밝혔다.

이번 업데이트로 사용자들은 클로바X 대화창에 업로드한 이미지에서 추출된 정보와 입력한 질의를 바탕으로 AI와 대화할 수 있다. 클로바X는 사진 속 현상을 묘사하거나 상황을 추론하는 등 다양한 지시를 수행할 수 있다. 이미지나 그림 형식으로 이뤄져 있는 표, 그래프를 클로바X가 이해하고 분석하는 것이 가능하다.

대한민국 초·중·고등학교 검정고시 총 1480개 문항을 AI 모델에 이미지 형태로 입력하고 문제를 풀게 한 결과, 클로바X는 약 84%의 정답률을 기록하며 오픈AI GPT-4o의 78%보다 높은 정답률을 보였다.

네이버는 지난 20일 ‘클로바’ 공식 사이트의 기술 블로그를 통해 하이퍼클로바X 기반 음성 AI 기술을 공개했다. 기존의 음성 인식, 음성 합성 기술보다 한층 발전한 모델로, 거대언어모델(LLM)의 특징인 뛰어난 문맥 이해 및 지시문 해석 능력을 활용해 언어 구조 및 발음 정확도 개선은 물론 감정 표현까지 더한 자연스러운 대화가 가능하다.

네이버는 하이퍼클로바X를 멀티모달 LLM으로 고도화하고 서비스에 적용하는 과정에서도 ‘AI 안전성’을 적극적으로 실천할 예정이다. 지난 6월 공개한 네이버의 AI 안전성 실천 체계 ‘네이버 ASF(AI Safety Framework)’로 AI 시스템의 잠재적 위험을 평가하고, 특히 음성 AI 기술은 보다 안전한 서비스 제공을 위해 다각도로 검토를 이어갈 계획이다.

성낙호 네이버클라우드 하이퍼스케일(Hyperscale) AI 기술 총괄은 “거대 언어 모델로 출발한 하이퍼클로바X는 이미지 이해 능력을 더한 거대 시각 언어 모델(Large Vision Language Model), 나아가 음성 멀티모달 언어 모델로 발전하고 있다”며 “하이퍼클로바X의 발전된 능력은 대화형 AI 에이전트 클로바X를 비롯한 여러 네이버 서비스에 도입해 새로운 사용자 가치를 창출하고, 기업용 AI 솔루션으로도 제공하며 하이퍼클로바X 생태계를 더욱 확장해나갈 것”이라고 말했다.