대화형 인공지능(AI) 챗GPT(ChatGPT)를 이용해 '한국의 경제부총리가 누구냐'고 질문한 모습. 전 부총리인 '홍남기'라는 대답과 함께 '2021년 기준 정보로 최신 업데이트 버전이 아닐 수 있으니, 다른 소스의 정보를 좀 더 참고해볼 필요가 있다'는 설명이 덧붙여 있다.


챗GPT(chat GPT)를 보건 의료 연구에 곧바로 활용하기엔 한계가 있다는 정부의 가이드라인이 나왔다. 챗GPT 같은 같은 생성형 인공지능(AI) 챗봇은 사실이 아닌 것을 마치 사실인 양 답하는 오류가 잦은데, 이런 문제를 해결하려면 챗봇을 보건 의료에 쓰려면 챗봇이 내놓은 대답을 확인하고, 검증해야 한다는 것이다.

질병관리청 국립보건연구원은 이 같은 내용을 담은 '보건 의료 분야 인공지능(AI) 윤리 연구 지침'을 17일 발간했다. 이 지침에서는 연구자들이 책임 있는 AI 연구를 할 수 있도록 연구 설계부터 데이터 생성, 모델 개발, 검증·평가, 적용 및 사후 점검 등 전 과정에 대한 윤리적 기준을 소개했다.

연구원은 AI 챗봇은 잘못된 정보를 그럴듯하게 제시해 사람들을 속아 넘어가게 하는 '환각(hallucination) 효과'를 일으킬 수 있기 때문에, 보건의료 분야에 활용하려면 신뢰성을 확보해야 한다고 설명했다.

챗GPT 같은 AI 챗봇은 실제론 존재하지 않는 것을 마치 사실인 양 답하는 경우가 많다. 기술 업계에선 이를 'AI 환각'이라고 부른다. 이런 현상은 여러 단계의 추론이 필요한 영역에서 더 자주 발생하는데, 정답을 알고 말하는 것이 아니라 다음에 나타날 가능성이 높은 단어를 계속 추가하는 식으로 답을 내놓기 때문에 벌어지는 일이다. 그러니 챗봇을 보건의료에 활용하려면 챗봇이 내놓은 대답을 확인하고, 문제가 생겼을 때 검증할 수 있게 사전에 준비해야 한다는 것이 지침의 설명이다.

지침은 AI 연구 과정에서 발생할 수 있는 윤리적 질문에 대한 원칙으로 인간의 자율성 존중과 보호, 인간의 행복, 안전과 공공 이익 증진, 투명성(설명 가능, 신뢰성), 책무(법적책임), 포괄성, 공정성, 지속 가능성(대응성) 등 6가지를 제시했다.

이어 응급상황에서의 AI 활용과 의료 AI의 질과 안전성, 챗봇의 환각 효과, AI와 인종 편향, AI 기술이 가져올 의료인 고용환경 변화 등을 구체적 사례를 넣어 설명했다. 법·윤리, 의료 AI, 보건의료정보 분야 전문가가 작성에 참여했으며 공청회를 통해 의견 수렴 과정을 거쳤다. 질병청 등은 올해 하반기 지침에 기반한 윤리 교육 프로그램을 운영할 계획이다.

박현영 국립보건연구원장은 "본 지침이 인공지능 활용 보건의료 연구에 대한 윤리적 인식 확산에 도움을 줄 것으로 기대한다"라고 말했고, 지영미 질병관리청장은 "앞으로 질병 관리에 인공지능 기술이 선도적으로 적용될 수 있도록 인공지능 연구 개발을 적극 지원하고 연구 활성화를 위해 노력하겠다"라고 밝혔다.