오픈AI가 지난해 11월 공개한 대화형 인공지능(AI) 챗GPT가 전 세계에서 인기를 끌고 있다./오픈AI

대화형 인공지능(AI) 챗GPT(ChatGPT)가 지난 10일 유료 서비스를 도입한 지 일주일도 안돼서 이용자 100만 명을 달성했다. 과학계에서도 챗GPT 활용 사례가 늘면서 국제학술지 ‘사이언스’도 챗GPT를 논문 작성 도구로서 인정할 가능성을 내비쳤다. 앞으로 챗GPT를 비판적으로 사용하는 역량이 더욱 중요해질 것으로 보인다.

챗GPT는 정보를 모아 요약하고 새로운 아이디어를 내는 데 특화됐다는 평가를 받고 있다. 이런 이유로 과학계는 공개 직후인 지난해 12월부터 논문 작성에 사용하고 공동 저자로 이름을 올리는 등 일찍부터 반응했다. 이런 상황에선 과학계 일각에선 최신 정보가 부족하고 출처도 불명확해 과학 연구에 챗GPT를 사용해도 될지 논란이 되기도 했다.

과학계에 막강한 영향력을 행사하는 사이언스만 해도 입장이 강경했다. 홀든 소프 사이언스의 편집장은 지난달 26일 사설을 통해 “사이언스를 포함한 사이언스계 6개 저널에서는 챗GPT가 만든 텍스트와 그림 등을 논문에 사용할 수 없다”며 가장 강경한 입장을 취했다.

하지만 사이언스는 22일(현지 시각) 챗GPT에 대한 과학계의 움직임을 보도하며 “일부 과학계가 챗GPT를 포함한 AI 사용을 허용함에 따라 사이언스에서 출판하는 저널들도 정책을 완화할 수 있다”고 밝혔다. 소프 편집장은 “기준을 강화하는 것보다 완화하는 것이 훨씬 쉽다”며 허용 가능성을 시사했다.

오픈 AI는 지난달 챗GPT가 만든 텍스트를 탐지할 수 있는 기술을 발표했다./오픈 AI 홈페이지 갈무리

◇ 네이처, 엘스비어 등 챗GPT 사용 인정... 텍스트 탐지 기술도 한 몫

과학계에선 사이언스의 이런 입장 변화가 네이처, 엘스비어 등의 주요 학술지 출판사가 챗GPT 사용을 조건부로 허가한 데 영향을 받은 결과로 보고 있다. 두 출판사는 앞서 “챗GPT를 논문 저자로서 인정하지 않지만 도구로서는 사용이 가능하다”며 “챗GPT 사용 여부만 논문에 명시하면 된다”는 입장을 정리했다.

대응 기술이 속속 개발되고 있는 점도 입장변화에 영향을 줬을 가능성이 크다. 사이언스도 챗GPT를 포함해 유사한 AI가 만든 텍스트를 탐지하는 기술이 속속 등장하고 있다고 언급했다.

실제로 챗GPT를 개발한 오픈 AI는 지난달 AI로 만든 텍스트를 골라내는 기술을 발표했다. 주어진 텍스트가 AI에 의해 생성됐는지 ‘가능’부터 ‘매우 가능성 없음’까지 보여준다. 실제 테스트 결과 오픈 AI의 탐지 기술은 AI가 만든 텍스트 중 26%만 AI가 만들었을 가능성이 있다고 감지했다. AI가 생성한 텍스트를 사람이 편집하면 탐지기가 판별할 수 없다는 한계도 있다. 오픈 AI는 AI가 생성한 텍스트에 비밀 코드를 넣는 ‘워터마크’ 등 개선 방안을 모색하고 있다.

지난달 26일에는 크리스토퍼 매닝 미국 스탠퍼드대 언어인지학및컴퓨터과학과 교수 연구진이 AI가 작성한 글을 잡는 ‘디텍트GPT(DetectGPT)’를 발표했다. 그러나 연구에 참여한 에릭 미첼 스탠퍼드대 컴퓨터과학과 박사과정생은 사이언스에 “학술지 편집자가 디텍트GPT로 원고를 검토하기 위해서는 개발이 더 필요하다”고 밝혔다.

표절탐지 서비스를 제공하는 턴잇인도 이르면 올해 4월 탐지 기술을 출시할 예정이다. 전반적으로 아직 AI 탐지 기술이 개발 단계에 머물러 있지만 점차 개선되며 활용 범위도 더 넓어질 것으로 보인다.

◇ 커지는 챗GPT의 위상...사용자의 검토·비판 능력 강조돼

네덜란드 흐로닝언대의 롯데 밧 포펠 커뮤니케이션학과 교수와 에리카 다릭스 커뮤니케이션 및 정보연구학과 연구원은 지난 20일 전문가 기고 사이트 ‘컨버세이션’에서 “챗GPT와 같은 AI 사용자들은 언어 인식과 비판적 사고 같은 기술을 기르는 것이 중요하다”고 밝혔다.

연구진은 사람들이 내리는 작은 일상적인 결정부터 사회 문제까지 모두 정보 수집과 조사, 비판적 평가를 거쳐 의견을 형성한다고 봤다. 여기서 챗GPT를 사용하면 수고를 덜 수 있지만 사용자는 텍스트 출력 과정을 검토하고 평가해야 한다고 주장했다.

연구진은 이를 뒷받침하기 위해 간단한 실험을 진행했다. 챗GPT에게 회사의 입장에서 사과문을 작성하되 문제에 대한 책임감을 담고 격식을 차리는 말투로 짧게 작성할 것을 요구했다. 두 차례 출력을 요청했더니 챗GPT는 ‘우리 회사의 행동에 대해 깊이 사과합니다’와 ‘우리의 행동이 야기한 불편에 대해 깊이 사과합니다’로 시작하는 사과문 두 건을 보여줬다.

실제로 챗GPT에게 회사의 입장에서 책임감을 담아 정중하고 짧게 사과문을 써달라고 요청했더니 '우리의 제품 또는 서비스가 야기한 불편에 대해 깊이 사과드리고 싶다'라는 문장으로 시작했다.

연구진은 “두 문장 모두 사과하는 것처럼 보일 수 있지만 첫 번째 문장은 행동 자체, 두 번째 문장은 행동의 결과에 대해 사과한 것으로 해석된다며 “두 번째 문장은 불편함에 대해 사과할 뿐 책임의 소지를 밝히지 않는데 이런 작은 차이가 법적 책임에 영향을 미칠 수 있다”고 말했다.

연구진은 “챗GPT를 이용해서 최상의 결과를 얻기 위해서는 올바른 질문을 해야 하고 생성된 텍스트가 요청한 것과 일치하는 지 꼼꼼하게 검토해야 한다”고 말했다. 앞선 예처럼 챗GPT가 텍스트의 맥락을 파악하지 못할 수 있기 때문이다. 연구진은 또 “사회는 챗GPT와 같은 AI의 위험성에 대비하고 잠재력을 수용할 수 있다”며 “사람들은 AI를 사용하며 빠르게 지식을 얻는 동시에 비판적인 시각으로 텍스트를 소비해야 할 것”이라고 밝혔다.

막달레나 스키퍼 네이처 편집장 역시 사이언스를 통해 “챗GPT로 우려하는 상황이 벌어질 수 있지만 오히려 엄청난 기회를 만들 수도 있다”며 “모든 도구에 한계가 있듯 챗GPT와 같은 AI 도구가 어떻게 개발되고 어떤 맥락에서 사용되는지 주의깊게 살펴야 한다”고 말했다.