한 대학 연구진이 개발한 암 진단용 AI가 폐 컴퓨터단층촬영(CT) 이미지에서 종양을 찾아낸 결과./MIT, Nature

암 검진에 사용되는 의료용 인공지능(AI) 기술이 발전할수록 윤리 문제가 발생할 위험이 커진다는 미국 암 전문가들의 지적이 나왔다. 암 AI에 대한 윤리적인 문제를 제기한 연구가 나온 건 처음이다.

미국 다나파버 암연구소 연구진은 3일 국제 학술지 ‘미국임상종양학회지’에 환자의 개인 정보보호와 자율성, 인간의 존엄성을 지키기 위해 사회적, 정책적 합의가 필요하다며 이 같은 분석을 내놨다.

최근 암을 조기에 진단하거나 치료에 도움을 주는 다양한 AI들이 등장하고 있다. 이전까지 암은 의사가 환자의 몸속을 엑스레이나 컴퓨터단층촬영(CT), 양전자방사단층촬영(PET) 이미지를 보고 맨눈으로 판독해야 했다. 전문의의 눈에 따라 판독 결과와 진단이 달라질 수 있다는 뜻이다. 또한 의사의 경험이나 노하우에 따라 치료 방법이 결정됐다.

암 진단 AI가 발전하면서 이제는 영상 이미지를 분석해 사람 눈으로는 찾기 힘들 만큼 작은 종양을 찾아내 암을 조기에 진단하는 것이 가능해졌다. 가령 의료용 AI에 대한 연구 결과를 가장 많이 낸 국내 기업 루닛은 흉부 엑스레이 영상을 보고 암을 찾아내는 ‘루닛 인사이트’를 개발했다. 루닛 인사이트는 아무리 전문가라도 찾기 힘든 1㎝이하 작은 종양까지도 찾아내 암을 극 초기에 진단할 수 있다.

루닛이 개발한 또 다른 AI ‘루닛 스코프’는 면역항암제 치료 후 반응성을 예측한다. 세포 이미지를 분석해 면역 타입을 분석한 다음 사람마다 면역항암제 효과가 얼마나 될지 76% 정확도로 예측한다. 최근 미국 텍사스대 의대 MD앤더슨암센터와 함께 미국 머크(MSD)의 면역항암제 ‘키트루다’의 다양한 암종에서 치료 효과 분석을 위한 연구를 시작했다.

이처럼 암 AI는 암을 빨리 발견, 진단하거나 암을 치료하는 방법을 결정하는 데 활용할 수 있다. 그만큼 환자가 완치할 가능성도 높아진다. 진단과 치료, 처방의 주체는 의사이지만, 앞으로 의료용 AI가 활동할 영역이 점점 넓어질 것이라는 전망이다.

하지만 연구진은 이처럼 암 AI 기술이 발전할수록 윤리적인 문제가 발생할 수 있어 사회적·정책적으로 대안을 마련해야 한다고 주장했다.

연구진은 우선 AI의 정확도가 높아지려면 더 많은 환자의 개인 정보를 학습해야 한다는 점을 근거로 꼽았다. 환자의 개인정보와 프라이버시를 침해하지 않고 데이터 공유를 해야 하는 더 많은 방법이 필요하다는 것이다. 환자 본인이 원하지 않아도 효율적인 치료를 받으려면 그 또한 AI에게 자기 진료 데이터를 공유해야 한다는 문제도 있다. 자기 데이터 활용 문제에 있어서 자율성을 잃게 되는 셈이다. 게다가 AI는 환자를 ‘한 사람’이 아닌, ‘하나의 데이터‘로 생각하기 때문에 그만큼 인간의 존엄성을 해칠 우려도 제기했다.

연구진은 AI가 의료 데이터를 분석하는 능력은 매우 뛰어나지만 사람인 의사를 대신할 수는 절대 없다고 강조했다. AI 덕분에 환자가 병원에서 의사를 마주하는 시간이 짧아지면 그만큼 의사와 환자 간 관계가 약화할 것이라는 주장이다. 더욱이 원격 의료와 원격 건강 모니터링이 일상화되면 이런 현상은 더욱 극심해질 것으로 봤다.

켈카 연구원은 “지금까지 의료용 AI와 환자 간의 상호작용을 연구한 결과는 없었다”며 이번 연구 결과의 의의를 설명했다. 그는 “AI가 아무리 정교하다고 해도 의사나 간호사 등 의료진, 간병인처럼 환자와 공감하고 연민을 느끼며 문화적으로 이해할 수 없다”며 “의료용 AI에 과도하게 의존하면 비인격적인 진료로 인해 치료 효과도 떨어질 우려가 있다”고 말했다.

연구진은 의료용 AI를 활용할 때에는 인간의 존엄성과 환자 자율성, 형평성, 의료윤리가 잘 지켜지는지 따져봐야 한다며 사회적, 정책적인 협력이 필요하다고 주장했다. 가령 환자를 진단하거나 치료 방법을 결정할 때 어디까지가 AI의 결과이고 어디서부터가 의사의 결정인지 명확하게 설명할 필요가 있다고 말했다. 또한 AI가 전 세계 인종과 민족, 사회경제적 혼합을 반영하는 폭넓은 빅데이터로 훈련돼야 한다고 강조했다. 지금도 일부 AI 학자들은 AI가 백인, 남성, 성인 등 한쪽 그룹의 데이터로만 치우쳐져 학습돼 있음을 우려하고 있다.

그레고리 아벨 다나파버 암연구소 노인혈액암프로그램 책임자는 “AI를 이용해 암을 진단·치료하는 전문가들이 환자의 자율성과 존엄성을 훼손하지 않고 지켜주도록 함께 협력하는 일이 중요하다”고 말했다.

이 연구 결과는 3일 ‘미국임상종양학회지(JCO Oncology Practice)’에 실렸다.

참고 자료

JCO Oncology Practice, DOI: https://doi.org/10.1200/OP.23.00412