‘구글 사진’ 서비스의 얼굴 자동인식 기능이 흑인을 ‘고릴라’로 인식하는 사건이 벌어져 구글의 인종차별 논란이 다시 일고 있다.

미국 뉴욕에서 일하는 흑인 프로그래머 재키 앨신은 지난달 28일 자신의 트위터에 “구글 사진, 당신들 모두 망했어. 내 친구는 고릴라가 아니다”라는 글과 함께 구글 사진 캡처를 올렸다. 이 캡처에는 앨신이 흑인 여성 친구와 함께 찍은 사진 묶음 표지에 ‘고릴라들’이라는 제목이 달려 있었다.

구글 사진 서비스가 얼굴 자동 인식을 한 결과 흑인 두 명을 고릴라로 인식한 것이다. 구글 사진은 이용자가 올린 사진을 분석해 사진 피사체의 정체를 자동으로 인식해 분류하는데, 이때 문제가 발생한 것이다.

구글은 이 문제에 대해 즉각 대응했다. 게시물이 올라온지 약 1시간 30분 후 요나탄 정거 구글 플러스 수석 설계자는 트위터로 앨신에게 공개 답장을 보내 지적한 사항을 살펴보고 있다고 전했다.

이후 29일 긴급 패치를 내놓아 이 문제를 해결했다. 또한 앨신에게 “이 문제를 고치게 도와줘서 매우 감사한다. (당신의 지적은) 큰 차이를 만들 것”이라고 말했다.

구글 대변인도 지난 1일 BBC와의 인터뷰에서 “이런 일이 생긴 것에 대해 끔찍하게 생각하며, 매우 죄송하게 생각한다”며 “이런 결과가 발생하지 않도록 즉각적인 조치를 하고 있다”고 말했다.

구글의 인종차별 오류 논란은 이번이 처음은 아니다. 지난달 19일 인터넷 구글 지도에서 미국 워싱턴DC를 연 후 검색창에 ‘깜둥이의 집(nigger house)’ 또는 ‘깜둥이의 왕(nigger king)’이라는 단어를 넣으면 백악관이 뜨는 사고가 발생했다. 미국 첫 흑인 대통령인 버락 오바마 대통령을 비하하는 표현이 구글 지도 검색어로 등장한 것이다.