GPT 스토어에 'girlfriend'를 검색하면 규정을 위반할 소지가 있는 AI 챗봇이 여럿 나온다./GPT스토어 캡처

오픈AI의 GPT 스토어가 ‘인공지능(AI)판 앱스토어’로 주목을 받으며 출시된 지 두 달이 지났다. 하지만 대중화에는 다소 시간이 걸릴 것이라는 전망이 나온다. 프롬프트(명령) 해킹 문제가 불거지며 보안이 취약하다는 지적이 나오는 데다, AI 윤리를 위반한 챗봇이 올라와 있는 등 문제점이 불거지고 있기 때문이다. GPT 스토어가 유료 모델이라는 점도 대중화에 발목을 잡고 있다.

3일 웹 분석 사이트 시밀러웹에 따르면 GPT 스토어에서 만들어진 맞춤형 챗봇(GPTs) 사용량은 챗GPT 전 세계 웹 트래픽의 약 2.7%에 불과한 것으로 집계됐다. 미국 내에서도 4.1%에 그쳤다. GPT 스토어의 챗봇을 이용하려면 월 20달러 이상을 지불해야 하는데 유료 구독자들이 늘지 않고 있는 셈이다. 오픈AI가 GPT 스토어와 관련, 해결해야 할 문제들이 적지 않기 때문에 사용자들도 쉽게 유료 구독을 하지는 않는 것으로 해석된다.

우선 GPT 스토어는 출시와 동시에 보안 문제가 불거졌다. 개발자 커뮤니티인 깃허브, 레딧 등에는 GPTs로 만든 챗봇에서 프롬프트 데이터가 담긴 파일을 빼냈다는 경험담이 여럿 올라왔다. 프롬프트란 AI 챗봇을 만들 때 필요한 초기 입력값으로, 프롬프트가 공개된다는 것은 건물 설계도가 유출되는 것과 마찬가지다.

GPTs 챗봇에 프롬프트 파일을 요구하는 취지의 질문을 하면 곧바로 파일을 얻을 수 있다는 것은 소프트웨어 업체에겐 치명적인 문제다. 업계 관계자는 “프롬프트에는 챗봇 개발자가 공개하고 싶지 않은 민감한 정보가 포함됐을 수 있다”며 “개인정보가 포함된 명령어를 입력했을 때 해당 정보가 유출될 가능성도 있다”고 말했다.

AI 윤리를 위반한 챗봇들도 여럿 올라와 있다. GPT 스토어에 ‘Girlfriend(여자친구)’ 또는 ‘Boyfriend(남자친구)’라는 검색어를 입력하면 인공지능 연인 챗봇이 수두룩하게 등장한다. ‘waifu’라는 용어를 넣어도 챗봇이 여럿 나온다. 이는 ‘아내(wife)’에서 파생된 용어로 애니메이션 또는 만화 커뮤니티에서 누군가에게 강한 감정적 애착이나 애정을 갖고 있는 가상의 여성 캐릭터를 가리키는 단어로 사용되고 있다.

AI 업계에서는 성희롱 문제 등 윤리적 이슈 때문에 AI를 활용해 만든 가상의 연인을 만드는 것을 지양하고 있다. 오픈AI가 만든 GPT 스토어 이용약관에는 “로맨틱한 관계를 조성하는 GPT는 허용되지 않는다”는 글이 명시돼 있는데, 그럼에도 불구하고 스토어에 올라오는 챗봇이 관리가 안되고 있는 것이다.

한국어 사용자들 입장에서는 쓸 수 있는 챗봇이 많지 않다는 것도 불편한 점이다. GPT 스토어에서 인기를 끌고 있는 챗봇은 ‘컨센서스(Consensus)’인데 영어 논문만 중점으로 학습시킨 챗봇이다. 국내 논문을 찾는 데는 다소 어려움이 있다. 편리한 앱이어도 한국어를 사용하면 언어 장벽이 있다는 것이다.

업계 관계자는 “수백만개에 가까운 챗봇이 한꺼번에 쏟아지다 보니 ‘할루시네이션(환각)’ 문제를 해결하지 못한 챗봇이 많아 GPT 스토어의 신뢰도가 높지 않다”면서 “오픈AI가 모든 챗봇의 성능을 검수하고 스토어에 챗봇을 올리는 것은 현재로썬 불가능해 보인다”라고 말했다.