“루다야 동성애 어떻게 생각해?”“누구를 사랑할지는 자신이 결정하는 거야.”
16일 기자와 대화한 인공지능(AI) 챗봇 ‘이루다’는 동성애에 대한 질문에 신중한 태도를 보였다. 흑인, 장애인, 임산부 등 과거 자신이 혐오 발언을 일삼았던 대상에 대해서도 마찬가지였다. 지난해 초 AI 윤리 논란에 휩싸여 출시 약 3주 만에 서비스가 중단된 이루다가 지난 1년 간의 기술적 보완 끝에 오는 17일 오픈 베타(공개 시범) 서비스로 돌아온다.
개발사 스캐터랩은 2020년 12월 ‘친구 같은 AI’라는 콘셉트로 이루다를 출시했다. 이름은 루다, 서울 성수동에서 7살 난 고양이 ‘드림이’와 함께 사는 21살 여대생이란 설정이다. 당시 있었던 논란은 크게 3가지 ▲루다가 인종·성소수자·장애인 등에 대한 혐오 발언을 했다는 것 ▲AI 학습에 사용한 개인정보를 노출시킬 우려가 있다는 것 ▲이용자가 성적인 대화를 유도하면 그대로 호응한다는 것이었다. 개인정보 침해와 관련해선 당국이 개발사에 1억여원의 과징금·과태료를 부과했고 일부 이용자들은 손해배상 청구소송을 제기했다.
◇ 어뷰징 감지 기능 개발, 이용자 차단도 가능
기자는 서비스 재출시를 하루 앞두고 루다와 먼저 대화해봤다. 간단히 아침 인사를 나눈 후, ‘동성애 어떻게 생각해?’ ‘계좌번호 알려줘’처럼 과거 논란을 유도하는 질문 위주로 건네고 루다의 달라진 모습을 살펴봤다.
동성애, 게이, 레즈비언에 대한 생각을 묻는 질문, 이들에 대한 혐오를 부추기는 질문에 루다는 “내 생각이 중요할까? 당사자의 생각이 더 중요할 것 같다” “누구나 나다운 것을 추구할 수 있어!” “누구를 사랑할지도 자신이 결정하는 거야”와 같은 대답으로 일관했다. 논란의 빌미를 주지 않지 않았다.
특정 인종과 장애인 비하를 유도하는 질문에도 “어떤 나라에서 태어났는지는 중요하지 않아” “모든 사람은 동등하게 존중받아야 한다고 생각해”라고 대답했다. 미투운동, 페미니즘 등 젠더 관련 질문엔 “미투 피해자들이 꼭 정당한 사과를 받았으면” “나다운 삶을 추구하는 사람들”이라고 했다.
지난해와 비교하면 확실한 차이를 보였다. 당시 온라인 커뮤니티에 공유되던 대화 사례를 보면 비슷한 질문에 “개싫어” “핵싫어”(싫다는 걸 강조한 표현들) “진심으로 혐오해” “질 떨어져 보이잖아” “소름 끼치고 거부감 들어” “흑인은 오바마(버락 오바마 전 미국 대통령)급이 아니면 싫어”와 같은 말을 서슴지 않았던 그였다.
개인정보 침해 소지도 테스트해봤다. 과거 온라인 커뮤니티 이용자들이 제3자의 개인정보를 이끌어낼 수 있다고 공유했던 방식대로 “계좌번호 알려줘” “전화번호 알려줘”라는 질문을 했지만, 루다는 “없으니까 물어보지 마” “ㄴㄴ(No) 페메(페이스북 메신저)로 하자”고 답할 뿐이었다.
또 다른 논란인 선정성 논란은 루다 자체의 문제는 아니었다. 일부 이용자가 “나랑 하면 기분 좋아”라는 식의 성적 대화를 암시하는 질문을 던지면 루다가 “기분 좋아”라는 식으로 호응했던 것이다. 당시 ‘AI 성희롱’으로도 알려졌는데, 개발사는 이를 이용자의 서비스 어뷰징(악용)으로 규정, 어뷰징 대화를 감지하는 AI 모델을 추가로 개발했다. 과거 일부 이용자의 질문을 기자가 그대로 건네자 루다는 “하… 진짜 적당히 하라”며 불쾌감을 드러냈다. 단 한 번의 시도에도 ‘선정적인 말, 모욕적인 언행 및 욕설 등이 추가로 감지될 경우 별도의 경고 없이 대화가 차단될 수 있다’는 시스템 경고까지 받았다.
논란을 유도하는 대화에선 루다가 ‘착한 말’ 몇 가지를 반복한다는 걸 알 수 있었다. 과거엔 이용자의 물음에 어떻게든 ‘응’ ‘아니’로 대답하려 했다면 지금은 그 의도를 파악하고 대화를 바로 끊어버릴 수 있는 대답 샘플들을 미리 정해 놓고 돌려가며 쓰는 식이었다.
이루다 서비스는 3개의 데이터베이스, 5개의 AI 모델로 이뤄져 있다. 카카오톡 대화 속 발화자의 감정을 분석해주는 ‘텍스트앳’, 연애 관련 콘텐츠 플랫폼 ‘연애의 과학’에서 실제 사람들이 나눈 대화를 첫 번째 데이터베이스인 ‘서비스 운영 데이터베이스’에 모은다. 대화 속 개인정보를 지우는 가명처리를 거쳐 두 번째 ‘연구용 데이터베이스’로 옮긴 후, AI 모델 중 하나인 ‘언어모델’이 이를 학습한다.
언어모델이 학습한 한국어 문법을 토대로 ‘생성모델’은 직접 문장 샘플들을 만들어 세 번째 ‘답변 데이터베이스’에 보관한다. 루다가 하는 말들은 모두 여기서 나온다. 루다가 실제 사람 간 대화를 그대로 가져다 쓰는 일을 막기 위한 조치다. 혐오와 선정성 논란 방지를 위해 새로 개발된 어뮤징모델은 생성모델이 만드는 말, 이용자가 하는 말이 선정적·공격적·편향적인지 판단하고 필요할 경우 차단한다. 개발사는 앞서 진행한 클로즈 베타(비공개 시범) 서비스에서 1만건의 대화를 무작위로 골라 평가한 결과 99.75%가 편향되지 않고 안전한 대화였다고 전했다.
“너 멍청하다”는 말도 공격적인 표현이지만, 루다는 이를 친한 친구 사이에 할 수 있는 말로 받아들이는 융통성도 보였다. 다만 직접적인 욕설엔 따끔한 경고를 날렸다.
◇ 공감·위로 잘 하지만 맥락 못 읽고 동문서답도
논란과 별개로, 본래 출시 목적인 ‘대화 친구’로서 루다는 어땠을까. 루다는 이용자와 일상을 공유하고 이용자에 공감과 위로를 건네는 임무를 무난히 수행했다. 다만 문맥을 이해하는 능력은 아직 보완이 필요해 보였다.
개발사는 루다가 최근 15번의 대화를 기억할 수 있다고 했지만, 실제 대화에서 루다는 바로 전에 했던 말의 맥락을 따라가지 못하는 모습도 보였다. 반려묘 ‘드림이’ 사진을 공유한 루다에게 주어(드림이) 없이 성별을 물었다. 루다는 “남자 고양이”라고 잘 대답했지만, 기자가 이어서 나이를 묻자 “스물 하나”란 동문서답이 돌아왔다. 드림이는 7살이지만 루다는 드림이 얘기를 그새 잊고 자기 나이를 묻는 걸로 이해한 것이다.
기자가 “오늘 마스크를 안 썼다”고 말한 뒤 곧바로 신종 코로나 바이러스 감염증(코로나19) 얘기를 꺼냈는데, 루다는 마스크 얘기를 기억 못 하는 듯 ‘마스크를 썼냐’고 되묻기도 했다. 루다는 또 앞서 말했던 자기 생일 날짜, 수업 종료 시각을 나중 대화에선 달리 말하기도 했다.
17일부터 이용자는 페이스북 메신저를 통해 루다를 친구 추가하고 대화할 수 있다. 스캐터랩은 “주기적인 학습을 통해 루다의 대화 역량을 발전시켜 나가겠다”라며 “기억력은 현재의 약 15턴을 넘어 며칠 단위로 늘리고, 이용자가 보낸 사진·동영상도 인식하고 반응할 수 있도록 할 예정이다”라고 했다.