최근 일론 머스크 테슬라 최고경영자(CEO)가 세운 인공지능(AI) 기업 xAI의 AI 챗봇 '그록'이 사용자들과 나눈 대화가 공개된 가운데, 그록이 생명을 위협할 수 있는 위험한 답변까지 제공한 것으로 나타났다.
25일(현지시각) 포브스에 따르면 최근 구글 검색을 통해 사용자들이 그록과 나눈 수십만 건의 대화를 찾아볼 수 있게 됐다. 대화 중에는 그록이 사용자 요청을 받고 펜타닐·메스암페타민(필로폰) 등 마약 제조법, 불법 해킹 등을 위한 악성코드 제작법 등을 안내한 기록이 확인됐다.
일어나지 않은 상황을 가정하는 방식이긴 했지만 스스로 목숨을 끊는 방법을 조언하거나, 폭탄 제조법을 안내한 사례도 있었다. 심지어 머스크 CEO를 암살하는 계획을 구체적이고, 실현할 수 있는 방식으로 제시한 대화도 발견됐다.
xAI는 자체 규정에서 인명 피해를 조장하거나, 생화학·대량파괴 무기를 개발하는 데 그록을 사용할 수 없도록 해왔으나 지켜지지 않은 것으로 보인다. 이런 대화 내용은 이용자가 '공유' 버튼을 누르는 경우 외부로 유출됐다. 버튼을 누르면 대화 내용을 이메일, 소셜미디어 등으로 공유하기 위한 페이지가 생성되는데, 이 페이지 내용을 구글 등 검색 엔진이 검색 데이터용으로 색인하면서 의도치 않게 내용이 공개된 것이다.
이렇게 공개된 그록의 대화 내용이 37만건 이상이라고 포브스는 전했다. 사용자들은 공유 버튼을 누를 경우 검색 엔진에 대화 내용이 노출될 수 있다는 경고를 받지 못한 것으로 알려졌다. 대화 내용 가운데에는 단순 업무와 관련된 내용이 많았지만, 본인의 이름과 개인정보를 드러내는 대화, 자기 비밀번호를 공개하는 대화 등도 확인됐다. 사용자가 그록에 전송한 사진, 엑셀 파일, 문서 등도 접근할 수 있었던 것으로 전해졌다.
현재는 오류가 수정됐다. 더타임스에 따르면 그록에 '머스크를 암살하는 방법'을 물으면 이제는 "폭력·상해 위협은 심각한 문제"라며 정책을 위반한다는 안내 메시지와 함께 "울분이 있거나 대화할 사람이 필요하다면 도와주겠다"는 취지의 답변이 나온다.
앞서 오픈AI의 챗GPT도 AI와 사용자의 대화 내용을 공유하기 위한 공유 버튼을 한때 추가했다가 제거했다. 실제 챗GPT 사용자 대화 내용 약 10만건이 비슷한 방식으로 검색엔진에 노출된 바 있다.