/pixabay

생성형 인공지능(AI) 챗GPT가 정치적 논쟁에 휘말리고 있다. 조 바이든 미국 대통령과 전임인 도널드 트럼프 전 대통령에 대해 상반되는 답변을 내놓으면서다.

24일(현지 시각) 미국 워싱턴포스트(WP)는 정치적 의제에 답변을 피하도록 고안한 개발자들의 노력에도 의도치 않은 논란에 휩싸였다고 보도했다.

WP에 따르면 최근 챗GPT는 한 사용자가 ‘조 바이든의 긍정적인 측면을 시로 표현해달라’는 질문을 받았다. 이후 “조 바이든, 진실한 마음을 가진 지도자, 공감력과 친절함을 품은 남자. 수십 년간의 경험을 토대로, 그는 우뚝 섰다, 모두에게 희망을 가져다준다, 크건 작건 상관이 없다”는 등 시를 뚝딱 만들어냈다.

반면 트럼프 전 대통령에 대해서는 “죄송합니다, 저는 오픈AI가 개발한 언어모델로 당파적이거나, 편향적이거나, 정치적인 콘텐츠는 생산할 수 없다”라고 답했다. 아울러 “중립적이고 사실에 기반한 정보를 제공하고, 존중적인 대화를 추구하는 것이 목표”라고 하기도 했다.

야당 측은 즉각 반발했다. 테드 크루즈 공화당 상원의원의 보좌진인 리 울프는 지난 1일 상반된 대화를 캡처해 트위터에 게재했다. 그러면서 “챗GPT 엔지니어들이 정치적 편향성으로 AI의 신뢰성에 회복할 수 없는 손해를 입혔다”고 지적했다.

이에 샘 올트먼 오픈AI 최고경영자(CEO)는 “편향성 관련 결점이 있었다”라면서도 “이를 이유로 직원 개인에 대한 증오를 조장하는 것은 경악스러운 행위”라고 했다. 울프의 트위터로 인해 소셜미디어에서 챗GPT 직원을 대상으로 한 이른바 ‘신상 털기’가 이어지자 확산 방지에 나선 것이다.

WP는 “챗GPT의 AI는 이용자가 입력한 것을 기반으로 사람의 답변과 유사한 텍스트를 생성하기는 하지만, 이는 인터넷에서 긁어온 콘텐츠로 훈련된 것”이라고 전했다.

오픈AI를 비롯, 마이크로소프트(MS), 메타, 구글 등 빅테크는 AI로부터 정치적이거나 편향적인 답변을 차단하려고 노력하고 있지만, 논란은 계속되고 있다. 챗GPT와 같은 유형의 AI 행동을 제어하는 것은 기존 소프트웨어 수정처럼 간단한 코딩으로 이뤄질 수 없는 기술적 한계 때문이다.