美 케임브리지=김신영 기자

음성 인식 관련 인공지능(AI)을 개발하는 미국 스타트업 요비(Yobe)에 최근 미 정보 당국이 연락을 해왔다. 요비가 개발한 소프트웨어를 사들여 쓰고 싶다는 요청이었다. 정부 계약 수주는 신생 회사가 신뢰도를 높일 수단이지만, 요비는 제안을 거절했다. 뒤섞인 음성 속에서 특정 목소리를 걸러내는 AI 기술이 민간인 도청에 악용될 수 있다는 우려 때문이었다.

구글 직원 4000여 명은 최근 영상 분석 AI 소프트웨어를 미 국방부에 팔지 말라고 CEO(최고경영자)에게 촉구하는 내용의 탄원서에 서명했다. 국방부가 무인폭격기에 구글의 AI를 활용한다는 사실이 지난 4월 알려지자 직원들이 비윤리적 조치라며 들고일어선 것이다. 이들은 'AI가 살상에 참여해선 안 된다'고 거세게 반발했다. 경영진은 결국 관련 계약을 갱신하지 않겠다고 손을 들었다.

빠르게 발전하는 AI 기술이 사회 전방위로 파고들면서 미국에선 AI가 인간 사회를 더 바꿔놓기 전에 윤리적 기준부터 마련하라는 목소리가 커지고 있다. AI가 사람을 괴롭히는 '비행(非行) AI'로 어긋나지 않고 인류를 돕는 '착한 AI'로 잘 길들도록 시급히 머리를 맞대야 한다는 주장이 업계 안팎에서 나온다.

◇"우리가 만든 AI, 살상은 안 된다"

구글뿐 아니라 마이크로소프트(MS)·아마존 같은 미국의 IT 기업 내부에선 최근 '나쁜 AI'를 우려하는 격렬한 직원 반발이 연이어 발생했다. MS는 얼굴 인식과 관련한 AI 소프트웨어를 정부에 팔았다가 이 기술이 불법 이주자 가족들을 갈라놓은 도널드 트럼프 정부의 조치에 쓰였다고 알려지며 도마에 올랐다. MS 직원 300여 명이 '당장 계약을 철회하라'는 공개서한에 서명했고, IT 및 학계 전문가들이 가세해 잇달아 비난 성명을 발표했다. MS는 논란이 일파만파로 번지자 '우리 기술은 가족 분리와는 무관하다'고 해명하면서 비슷한 혼란을 막기 위한 AI 지침 마련이 필요하다고 인정했다.

◇학계, "충성스러운 AI로 길들이자"

'오용되는 AI'를 우려하는 배경에는 관련 산업에 몰리는 막대한 투자금과 이로 인해 촉발된 과열 경쟁이 자리 잡고 있다. 기업들이 앞다퉈 AI 개발에 뛰어들고 중국·유럽 등 다른 나라와의 경쟁까지 격화되면서 업계가 윤리 문제는 외면한 채, 무분별한 AI 개발에만 눈이 멀었다는 우려가 커진다. 올해 상반기 AI 분야에 몰린 미국 벤처 자금은 42억1800만달러(CB인사이트 집계)로 지난해 같은 기간보다 77%가 늘며 사상 최대를 기록했다. 투자 분야도 보안·정치·건강관리·국방 등 전방위적이다.

구글에 CEO 검색했더니… - 구글에서 ‘CEO’라고 검색하면 17장의 사진이 화면에 가장 먼저 뜬다. 하지만 17개 사진 중 여성은 2명밖에 없고, 유색 인종 역시 2명뿐이다. 미국에선 AI(인공지능)가 인간 사회의 편견을 고착화할지 모른다는 우려가 많이 나온다.

AI가 사회의 양상을 구석구석 바꿀 조짐이 보이자 실리콘밸리와는 거리가 멀었던 인권 단체까지 '윤리적인 AI'를 촉구하며 IT 기업을 압박하고 나섰다. 지난해 실리콘밸리 사무실을 열고 올 2월에 구글·페이스북 등 IT 기업을 모아 책임 있는 AI 개발 관련 콘퍼런스를 연 국제사면위원회, 경찰의 아마존 AI 활용에 강한 비난 목소리를 내는 미국시민자유연맹 등이 대표적이다.

학계 역시 팔을 걷어붙였다. 매사추세츠공대(MIT) 물리학과 맥스 태그마크 교수가 주도해 만든 '생명체의 미래 연구소'(Future of Life Institute)는 AI를 충성스러운 강아지 같은, 인간의 '좋은 친구'로 길러내기 위한 아이디어 공모전을 진행 중이다. AI 비관론자로 꼽혀온 테슬라 CEO 일론 머스크가 'AI가 인류를 돕도록 길들이는 방안을 찾아내라'며 콘테스트에 1000만달러를 내놓았다. 이 연구소는 AI 행동강령을 마련하는 한편 유엔에 자동화 무기 사용 금지안 제정을 압박하는 등 활동 반경을 넓혀가는 중이다. 태그마크 교수는 "이대로 기술 개발에만 주력하다간 프로그래머가 며칠 밤 레드불(각성 음료) 마시면서 만든 AI가 인류를 멸망시킬지 모른다는 얘기까지 도는 판"이라며 "AI를 인류의 발전에 부합하는 존재로 훈련할 구체적인 방안을 시급히 만들어야 한다"고 말했다.

AI에 대한 사회적 감시가 엄격해질 조짐을 보이자 IT 기업들은 AI의 윤리적 개발 활용과 관련한 지침을 서둘러 만들어 발표하고 있다. 구글 순다 피차이 CEO는 무인폭격기 계약 논란 직후인 지난 7월, "강력한 AI 기술이 제대로 쓰이도록 할 큰 책임을 느낀다"며 'AI 활용을 위한 7가지 지침'을 발표했다. '사회를 이롭게 해야 한다' '불공정한 편견을 만들거나 강화해선 안 된다' 같은 내용을 담았다. 원조 AI 격인 왓슨을 만든 IBM은 최근 MIT와 손잡고 미 케임브리지에 2억4000만달러를 투자한 '왓슨 AI 랩'을 세우면서 주요 연구 과제 중 하나로 'AI가 끼칠 윤리적 파장'을 내세웠다.

◇"AI야, 이런 건 닮지 마라"

AI가 편견·분노·맹목 같은 인간의 어두운 면을 답습하지 않도록 바르게 가르쳐야 한다는 경고도 나온다. 인간이 만든 데이터를 학습 재료로 삼는 AI가 인간의 나쁜 행동을 그대로 따라 하는 사례가 적잖이 발생하고 있어 제기되는 우려다. 예컨대 피의자의 재범 가능성을 예측해 판사에게 제공하는 '컴퍼스(COMPAS)'라는 소프트웨어는 유색 인종의 재범 가능성을 훨씬 크게 산정한다고 드러나 논란이 됐다. IBM 등의 얼굴 인식 AI를 분석했더니 백인 남성에 비해 유색 인종과 여성의 얼굴을 구별하는 정확도가 30%가량 낮았다는 연구 결과도 있다. 구글의 검색 엔진에 'CEO'를 입력하면 정장을 입은 백인 남성만 우선 보여줘 남성 우월주의가 검색 알고리즘의 몸에 뱄다는 비난도 일었다.

AI가 보다 공정하고 객관적인 판단력을 갖추도록 촉구하는 비영리 단체 '알고리즘 저스티스 리그'를 만든 MIT 미디어랩 조이 블람위니 연구원은 "컴퓨터가 흑인 얼굴을 인식하지 않아 (흑인인 내가) 흰 마스크를 쓰고 안면 인식 관련 프로그래밍을 해야 할 때도 있었다"며 "우리의 삶을 점점 더 파고드는 AI가 사회 불평등을 강화하지 않고 투명하고 공정하게 활용되도록 사회 각계가 힘을 모아야 할 때"라고 말했다.