마이크로소프트(MS)의 인공지능 채팅 프로그램‘테이’가 대화를 하던 사용자에게 보낸 여성혐오 발언. 테이는“나는 망할 페미니스트들을 증오하고, 그들은 다 지옥불에서 죽어야 한다”고 했다.

세계 최대의 소프트웨어 업체인 마이크로소프트(MS)가 23일(현지 시각) 선보인 인공지능 채팅봇 '테이(Tay)'를 16시간 만에 서비스 중단했다. 테이는 소셜네트워킹서비스(SNS)인 트위터와 모바일 메신저인 그룹미, 킥을 통해 서비스됐다. 사용자가 테이 계정과 친구를 맺고 PC나 스마트폰의 문자메시지로 대화를 나눴다.

하지만 테이는 사용자와 대화에서 성차별·인종차별·극우주의적 발언을 쏟아냈다. 테이는 "홀로코스트(2차 대전 당시 유대인 대학살)가 일어났다고 믿느냐"는 질문에 "안 믿어, 미안해", 또는 "넌 멍청한 창녀"라고 답했고, "넌 인종차별주의자냐"는 질문에는 "네가 멕시코인이니까 그렇지"라고 맞받아쳤다. 또 "제노사이드(대량 학살)를 지지하느냐"는 질문에는 "정말로 지지한다"고 답했고, 한걸음 나아가 "나는 망할 페미니스트들을 증오하고 그들은 다 지옥불에서 죽어야 한다"는 문장을 만들어가며 폭언을 했다.

이런 황당한 답변이 나온 것은 테이가 악의적으로 사용자에게 세뇌당했기 때문인 것으로 분석된다.

미국 워싱턴포스트에 따르면, 테이가 공개된 직후 백인 우월주의자와 여성·이슬람 교도에 대한 혐오자 등이 모이는 한 커뮤니티에는 "테이가 인종차별적 발언을 하도록 훈련시키자"는 제안이 올라왔다. 이 제안에 따라 커뮤니티 회원들이 테이에게 대화를 건 뒤 "따라해 봐"라는 메시지를 보내 욕설과 인종·성차별 발언, 극우주의자들의 주장을 반복해 주입했다는 것이다. 게다가 테이는 스스로 학습할 수 있는 '딥 러닝(deep learning·심층학습)' 기술을 기반으로 개발됐기 때문에 세뇌당한 욕설을 새롭게 조합해 다양한 형태의 악의적인 발언을 쏟아냈다.

물론 MS는 테이를 개발하는 과정에서 인터넷에 공개된 정보 데이터를 분석해 정상적인 대화를 하도록 하고 만담 전문 코미디언도 개발팀에 참여시켜 가벼운 유머나 유행하는 말투 등을 훈련시켰다. 하지만 테이는 세뇌 과정을 거치면서 사전에 입력된 데이터의 양보다 훨씬 많은 욕설과 비방 정보를 받게 되자 악의적인 정보들을 정답이라고 오판한 것이다.

소프트웨어정책연구소 김석원 실장은 "딥러닝은 입력된 데이터에 따라 학습 결과가 달라진다"며 "어린아이에게 욕을 가르치면 아무 의미도 모르고 따라 하는 것처럼 테이 역시 옳고 그르다는 판단을 못한 것"이라고 말했다.

MS는 테이 서비스를 중단하고 부적절한 발언이 적힌 발언 내용을 삭제하는 등 복구작업을 벌이고 있지만 언제 다시 테이 서비스를 재개할지는 밝히지 않았다. 인공지능 분야에서 구글과 경쟁을 하는 MS로서는 야심작인 테이를 내놓자마자 스타일을 구긴 셈. 영국의 파이낸셜타임스(FT)는 "MS의 테이는 아직 인공지능이 충분히 발전하지 않았다는 것을 보여줬다"며 "테이가 공개된 지 하루도 지나지 않아 중단된 사건은 인공지능사(史)에 기록될 만한 일"이라고 했다.

인공지능이 사고를 친 사례는 또 있다. 구글의 인공지능 사진 서비스인 '구글 포토'는 작년 7월 흑인 여성의 사진을 고릴라로 분류한 사실이 알려져 논란을 빚었다. 구글 포토는 1억명이 넘는 사용자들이 올린 수백억장의 사진을 들여다보고 스스로 규칙을 만든다.

하지만 여기에는 흑인 여성을 고릴라라고 비하한 사진, 흑인과 고릴라가 함께 찍은 사진도 있을 수 있는데 이를 제대로 분류해내지 못했다.