지난 2012년 딥러닝(Deep Learning)의 등장과 함께 인간 기술의 미개척 영역을 열 것으로 기대됐던 인공지능(AI)이 교착상태에 빠졌다는 진단이 나왔다. 10년이 가까운 기간동안 전 기업, 연구기관에서 막대한 투자가 이뤄졌지만 사실상 절반 수준은 실패에 가까운 결과로 귀결되고 있으며, 그나마 상용화된 AI 기술도 인종, 소득수준 등에 따라 사람을 차별하는 오류가 발생하고 있다.

24일 니혼게이자이신문은 시장조사업체 가트너의 보고서를 인용해 전 세계에서 이뤄지는 AI 사업의 47%가 연구개발 단계에서 실패하거나 폐기된 것으로 나타났다고 보도했다. 또 기존의 딥러닝 알고리즘은 데이터가 많이 축적될수록 정교한 AI 개발로 이어질 것이라는 기대와는 달리 실패가 좀처럼 줄지 않고 있다고 전했다.

인공지능 로봇이 나오는 SF 영화 ‘엑스 마키나’의 한 장면. /유니버설픽처스 제공

딥러닝은 인공신경망의 한계를 극복하기 위해 제안된 기계학습 방법으로, 수많은 데이터 속에서 패턴을 발견해 인간이 사물을 구분하듯 컴퓨터가 데이터를 분류한다. 초기 이미지 학습을 통한 패턴 발견에서 유용함을 입증한 딥러닝은 이후 텍스트, 음성 등으로 영역을 점차 확장해나가기 시작했다. IDC에 따르면 전 세계적으로 기업들의 AI에 대한 총 투자액은 자동차산업의 연구개발비와 거의 비슷한 124조원 수준에 달한다.

이같은 투자에도 불구하고 AI 기술은 새로운 돌파구를 찾는데 어려움을 겪고 있으며 상용화된 기술에도 다양한 문제점이 존재한다고 니혼게이자이는 분석했다. 가령 최근 영국의 경우 팬데믹 상황을 감안해 대학 입시에 적용된 AI 기반 성적 판정 기술이 논란을 야기했다. 전체 학생 중 약 40%가 부당한 평가를 받은 것으로 알려졌는데 이들 중 대부분은 학비가 저렴한 공립학교에 다니는 노동자 계급의 학생인 것으로 나타났다.

대형 IT 기업들의 AI도 인종차별을 비롯한 각종 문제를 야기했다. 트위터의 경우 자동 이미지 자르기 기능에 사용된 AI 알고리즘이 여성과 백인에 우호적이라는 사실이 드러나면서 도마에 올랐다. 자동 이미지 자르기는 사용자가 찍은 사진을 트위터에 올릴 때, AI가 중요 부분이나 핵심 인물을 자동으로 분석하고 잘라내 미리보기용 작은 사진을 만들며 작동하는 기능이다. AI가 이 작업을 하면서 남성보다는 여성을, 흑인보다는 백인을 우선적으로 선택한다는 것이다.

마이크로소프트(MS)의 AI 챗봇 테이(Tay) 역시 인종차별, 성차별 등 혐오발언을 쏟아내는 심각한 오류를 내며 서비스가 중단된 바 있다. 구글의 ‘알파고’ 처럼 신경망이라고 알려진 AI 기술을 기반으로 대화 패턴 데이터를 학습시킨 결과가 소위 ‘인종차별주의 AI’를 만든 셈이다.

국내에서는 AI 챗봇 ‘이루다’가 혐오 발언에 개인정보 유출 논란까지 겹치면서 20일 만에 서비스를 중단한 바 있다. 2011년 설립된 이루다 개발사 스캐터랩은 챗봇 서비스를 고도화시켜 이를 기업들에 판매하는 회사다. 이루다는 출시 후 국내 일부 온라인 커뮤니티 사용자들의 ‘성노예 만들기’ 공격 대상이 됐고, 이루다 스스로 인종·동성애자·장애인 등을 혐오하는 태도까지 보이면서 결국 서비스가 중단됐다.

학계에서는 지금과 같은 AI 연구개발 방식은 기존에 존재하는 사회적 차별이 IT 기술로 이식하는 결과를 초래할 수 밖에 없다고 지적하고 있다. 영국 옥스포드대의 닉 보스트롬 교수는 “(현재와 같은 방식의) AI는 문명을 멸망시키는 기술이 될지도 모른다”며 “데이터 기반 서비스의 장점에 눈이 멀어 AI 알고리즘의 부정적인 측면을 제어할 수 없다면 우려할만한 결과로 이어지게 될 것”이라고 경고했다.