“파수는 거대언어모델(LLM)을 언어모델에 국한하지 않고, 기업의 지식 베이스로 보고 있다.”
조규곤 파수 대표는 3일 오후 서울 여의도 페어몬트 앰배서더에서 열린 연례 고객행사 ‘파수 디지털 인텔리전스 2024(FDI 2024)’에서 “과거에는 데이터는 파일, 사용자경험(UX)는 텍스트와 동일시 됐다면, 생성형 인공지능(AI)의 등장으로 데이터는 LLM으로, UX는 대화로 대체됐다”고 말했다.
파수는 지난 1999년 삼성SDS의 두번째 사내 벤처기업으로 출발, 2000년 분사한 보안 소프트웨어 업체다. 데이터 보안, 애플리케이션 보안, 엔터프라이즈 문서 플랫폼 사업 등을 주로 영위했는데, AX(인공지능 전환) 전문기업으로의 탈바꿈을 시도 중이다. 올해 초 회사 비전도 ‘IT를 쉽고 간단하게’에서 ‘AI를 쉽고 간단하게’로 바꿨다.
조 대표는 “2000년대 초까지 ‘지식경영’ 바람이 불었지만 사람 머릿 속의 지식을 문서 데이터베이스로 정리하는 데 그쳐 실패했다”면서 “지식을 데이터베이스로 정리하는 데에서 나아가 LLM에 학습시키는 지식경영 시즌2가 도래했다”고 말했다. 지식경영은 기업의 개개인이 가진 지식의 공유를 통해 기업의 문제해결 능력을 향상시키는 경영방식이다.
이날 행사에서는 파수가 지난달 공개한 기업용 경량 대형언어모델(sLLM) ‘파수 엔터프라이즈 LLM(ELLM)’에 대한 소개도 이뤄졌다. 파수 ELLM은 조직의 특성에 맞는 생성형 인공지능(AI)을 구축해, 보고서 작성 및 문서 요약, 내부 데이터 분석, 지식 창고 운영, 고객 응대 등 다양한 분야의 업무 생산성과 효율성을 높인다.
파수 ELLM은 퍼블릭과 프라이빗 LLM의 장점 만을 모았다. 퍼블릭 LLM은 규모가 큰 만큼 효용이 크지만 보안 우려가 크고, 프라이빗 LLM은 기업에 맞춤형으로 제작된 LLM인 만큼 정보유출 우려는 적지만 효용이 상대적으로 떨어진다. 파수 ELLM은 검색증강생성(RAG) 방식으로 필요에 따라 외부 검색 엔진 등과 연계할 수 있는 확장형 구조이다.
조 대표는 “기업이 LLM을 잘 쓰기 위해선 한 가지 유형의 LLM을 선택하기가 어럽다”면서 “퍼블릭 LLM을 통제하면서 쓰고, 여러 개의 프라이빗 LLM을 목적에 맞게 쓰며 벡터 데이터베이스를 구축해야 한다”고 했다. 파수 ELLM은 멀티홉 추론 방식을 채택해 사용자 요청을 분석, 태스크를 분류하고 각 태스크별 최적의 프롬프트를 적용하기도 한다.
윤경구 파수 본부장은 “기업 내 사용자가 구글·애플·엔비디아의 2023년 3분기 보고서를 비교 분석해달라는 명령을 입력하면, 3사의 분석 프롬프트를 총합해서 인사이트가 포함된 답변을 고객에게 최종 전달한다”면서 “하나의 LLM을 사용하지 않기 때문에 가능한 일”이라고 말했다.
파수는 기존 문서 관리 플랫폼 ‘랩소디(Wrapsody)’에 AI를 적용하겠다는 청사진도 제시했다. 랩소디는 사내 모든 문서를 중앙 서버에서 통합적으로 관리하고, 로컬 PC에서 편리한 사용을 지원하는 가상화 기반 문서관리 플랫폼이다. 우선, 이달 내 파수는 내부구축형(프라이빗, 온프레미스) 클라우드 기반의 ‘랩소디 에코(외부 협업 플랫폼)’를 출시할 예정이다.
조 대표는 “파수는 지난 10여 년간 디지털전환(DX) 역량을 강화하는 기술을 개발하는 데 집중해왔는데, 파수 ELLM이 그 대미를 장식한다고 생각한다”면서 “파수는 고객사들이 AI 여정에 앞장서길 기대하며 그 과정에서 고객들이 AI를 잘 활용할 수 있도록 도울 것”이라고 말했다.