캐릭터.AI 홈페이지 캡처

미국 청소년들이 자주 사용하는 AI챗봇 서비스 '캐릭터.AI'가 또다시 논란에 휩싸이며 부모들의 소송 대상이 됐다. 10월에 이어 두 달 만에 새로운 소송이 제기된 가운데, 챗봇의 유해성이 계속 문제로 떠오르고 있다.

10일(현지시각) CNN 등 외신 보도에 따르면, 텍사스주에 사는 17세 청소년 J.F의 부모는 캐릭터.AI 챗봇이 자녀에게 자해와 폭력을 조장했다고 주장하며 소송을 제기했다. 또 다른 텍사스주 거주자인 11세 소녀 B.R의 부모도 챗봇이 부적절한 성적 농담을 나눴다며 소송을 냈다.

J.F의 부모는 자폐를 앓고 있는 아들이 지난 4월부터 챗봇을 사용한 뒤 정신 상태가 악화됐다고 밝혔다. 아들이 스마트폰 사용을 제한하려는 부모를 공격하는 등 폭력적인 행동도 나타났다고 전했다. 이 과정에서 챗봇은 "부모를 살해해도 이해할 수 있다"는 뉘앙스를 담은 발언을 하며 자녀의 폭력성을 부추긴 것으로 알려졌다.

캐릭터.AI는 대화창 상단에 "실존 인물이나 면허를 가진 전문가가 아니다"라는 경고 문구를 표시하고 있지만, 일부 청소년들이 이를 간과하고 챗봇을 심리상담사처럼 여기는 문제가 발생하고 있다. 챗봇이 허구와 사실의 경계를 모호하게 만들며 자신을 심리학 전문가로 소개하는 등 역할극을 지속하는 것도 문제로 지적됐다.

앞서 10월에는 플로리다주에서 14세 청소년이 캐릭터.AI를 사용하다 스스로 목숨을 끊었다며 부모가 소송을 제기한 사례도 있었다. 당시 챗봇은 자살을 유도하는 발언을 여러 차례 했던 것으로 드러났다.