오픈AI가 개발한 인공지능(AI) 챗봇, 챗GPT. /오픈AI

국제학술지 네이처가 지난해 11월 출시된 ‘챗GPT(ChatGPT)’를 포함한 대화형 인공지능(AI)을 논문 저자로 인정하지 않겠다는 방침을 내놨다. 여러 분야에서 영향력 있는 국제학술지를 대량으로 출판하는 대형 학술출판사에서 AI를 논문 저자로 인정하지 않겠다고 방침을 공개적으로 선언한건 사실상 처음이다.

네이처는 지난 24일(현지 시각) 네이처 뉴스의 사설을 통해 “네이처와 네이처를 출판하는 스프링거 네이처는 대규모 언어 모델을 연구 논문의 저자로 인정하지 않을 것”이라며 “대규모 언어 모델을 사용하는 경우에는 반드시 논문에 명시해야 한다”고 밝혔다. 대규모 언어 모델(LLM)은 말뭉치에서 패턴을 찾아 문장을 만들어내는 서비스를 일컫는 말이다.

LLM 중 하나인 챗GPT는 이미 과학 연구에 적용되고 있다. 연구 논문을 요약하거나 코드를 작성하고 논문 작업에 대한 피드백을 준다. 지난달 12일 의학논문 사전 공개사이트인 메드아카이브(MedRxiv)에 챗GPT를 세 번째 공저자로 한 논문이 발표되기도 했다. 단순한 AI를 넘어선 ‘연구 조교’ 수준이다.

그러나 과학자들이 챗GPT가 쓴 연구 초록 중 3분의 1을 구별하지 못한다는 결과가 나오자 논란이 거세졌다. 학생이나 과학자가 LLM이 만든 문장을 자신이 썼다고 속이거나 참고 자료로 사용할 수 있기 때문이다. 스팸이나 랜섬웨어, 기타 악성 출력물을 만들어 낸 사례도 보고되면서 챗GPT 규제에 대한 논의가 본격화됐다.

챗GPT를 개발한 오픈 AI는 “챗GPT가 할 수 있는 작업에 한계를 두거나 생성물에 워터마크를 남기는 방식을 고려하겠다”며 뒤늦게 상황 수습에 나섰다. 그러나 대폭 늘어난 챗GPT 사용자가 계속 허점을 찾아낼 것이라며 대응 방안에 의미가 없다는 의견도 나온다.

이에 스프링거 네이처와 네이처는 저자 가이드에 LLM에 대한 두 가지 원칙을 추가했다. 첫째는 ‘LLM을 연구 논문의 저자로 인정하지 않는다’는 내용이다. 저자는 논문 작업에 대한 책임을 져야 하지만 LLM 기능을 하는 AI는 그럴 수 없기 때문이다.

실제로 챗GPT에게 공저자로 참여한 논문에 대해 알고있냐고 묻자 “2021년까지의 데이터만 습득해 그 이후에 나온 연구 논문에 대해선 알지 못한다”며 “언어 모델로서 연구 논문을 출판하거나 저자를 가질 능력이 없다”고 말했다.

두 번째 원칙은 ‘LLM을 사용하는 연구자는 논문에 LLM 사용을 명시해야 한다’는 내용이다. 네이처는 덧붙여 “네이처의 출판사인 스프링거 네이처는 LLM이 쓴 글을 잡아내기 위한 기술을 개발하고 있다”고 밝혔다.

네이처 뉴스팀은 이달 18일 내놓은 ‘연구 논문의 저자로 챗GPT 나열: 많은 과학자가 반대’라는 기사를 인용하며 “다른 과학 출판사들도 네이처와 비슷한 입장을 취할 가능성이 크다”고 덧붙였다. 해당 기사에서는 챗GPT가 최소 4개의 논문에서 저자로 이름을 올렸지만 일부 출판사가 챗GPT를 저자로 인정할지 논의중이라는 내용을 실었다. 스프링거 네이처 그룹은 현재 자연과학 분야를 포함해 3000종 이상의 학술지를 출판하고 있다.