일론 머스크 테슬라 최고경영자(CEO)는 지난해 10월 X를 통해 “분석을 위해 그록(Grok·X의 인공지능 모델)에게 엑스레이, 양전자방출단층촬영(PET), 자기공명영상(MRI) 등 의료 이미지를 제출해보라”며 “아직 초기 단계지만 이미 꽤 정확하고, 앞으로 훨씬 좋아질 것”이라고 썼다. 이후 X 사용자들은 뇌 MRI, 탈구된 어깨의 엑스레이 이미지 등을 그록에게 분석하라고 시켰고 그 결과를 공유했다. 문제는 이렇게 수집된 개개인의 민감한 의료 데이터가 어떻게 활용되는지 모른다는 점이다. 미국 뉴욕타임스(NYT)는 “병원이나 보험사들은 미 건강정보보호법(HIPAA)의 제약을 받지만, 소셜미디어에 자발적으로 올리는 정보는 이런 제약이 없다”며 “자신의 알츠하이머 PET 영상이 플랫폼을 통해 미래의 고용주나 보험 회사에게도 공유될 수 있는 셈”이라고 지적했다.
의료 인공지능(AI)은 인류의 건강을 혁신할 잠재력을 가졌지만, 그만큼 위험성도 크다. 의료 AI를 학습시키기 위해서는 막대한 양의 민감한 의료 데이터가 필요하기 때문이다. AI를 운영하는 테크 업체들이 이용자들의 건강 정보와 의료 기록을 낱낱이 파악할 수 있다는 우려에 영미권에서는 소송까지 진행되기도 했다.
2015년 당시 구글의 AI 자회사였던 딥마인드는 영국 의료보험기구(NHS)로부터 환자 160만 명의 의료 기록을 제공받았다. 신장 기능에 이상이 있는지 파악하는 앱 ‘스트림’을 개발하기 위해서다. 문제는 이 의료 기록에 환자의 성별과 나이는 물론 우울증 등 병력과 알코올 중독, 낙태 여부 등을 포함하고 있고 환자의 동의를 얻지 않았다는 점이다. 2017년 영국 정보감독위원회(ICO)는 병원이 데이터보호법을 위반했다고 판단했지만, 런던고등법원은 개인정보가 오용됐다는 증거가 없다며 소송을 기각했다.
서울아산병원 심장내과 김영학 교수 연구팀은 의료 AI 모델에 대해 의도적으로 악성 공격을 시행한 결과, 약 81% 확률로 보안 조치가 침해됐고 답변 과정에서 원본 데이터를 노출할 가능성도 최대 22%에 달했다는 연구 결과를 내놨다. 김 교수는 “의료 분야는 민감한 개인정보를 다루는 만큼 보안의 중요성이 특히 강조되며, 독립적으로 운용되는 의료 특화형 대규모언어모델이 필요하다”고 했다.