킬러로봇 반대 토비 왈시 교수 "구글의 AI 윤리 준수 감시기관 필요"

조선비즈
  • 심민관 기자
    입력 2018.06.21 15:02 | 수정 2018.06.21 15:02

    “구글은 인공지능(AI)이 국제 규범이나 인간의 권리를 침해하지 않도록 하겠다는 내용의 AI 윤리 가이드라인을 내놓았지만 그것만으로는 부족합니다.”

    토비 왈시(Toby Walsh) 호주 뉴사우스웨일즈대 교수는 한국과학기술원(KAIST)이 21일 주최한 인공지능 윤리 국제 세미나에 참석해 이같이 말했다. 그는 “구글이 내놓은 AI 윤리 가이드라인을 지키는지 감시할 독립기관이 필요한데, 그 부분은 모호한 상태로 빠져있다”며 “구글이 좀 더 명확한 답변을 내놓아야 한다”고 말했다.

    토비 왈시 호주 뉴사우스웨일즈대 교수가 21일 서울 웨스틴조선호텔에서 열린 인공지능 윤리 국제 세미나에 참석해 발언하고 있는 모습. /심민관 기자
    토비 왈시 교수는 올해 4월 KAIST와 한화시스템이 공동으로 진행하기로 한 AI 무기 개발 연구 과제를 문제 삼으며 KAIST와의 국제 공동 연구를 보이콧하겠다고 선언해 국내에 알려진 인물이다. 당시 29개국에서 57명의 연구자가 "KAIST가 군사용 AI 킬러 로봇을 개발할 가능성이 있다"며 보이콧 성명에 참여했다.

    이날 토비 왈시 교수는 AI를 이용한 자율 살상 무기의 위험성도 경고했다. 토비 왈시 교수는 “많은 사람이 AI 무기를 얘기할 때 터미네이터를 상상하지만 이는 아주 먼 미래의 일”이라며 “우리가 걱정하는 건 테러집단이 사용하는 반자율적 드론 기술”이라고 강조했다.

    그는 “AI 무기가 전쟁터에서 24시간 사용될 가능성이 있고 앞으로 AI 기술이 발전해 단 한 명만으로도 AI가 적용된 대량 살상 자율 무기를 작동시킬 수 있을 가능성이 있다”며 “AI 기술이 발달해 완전히 자율적으로 활동하는 드론을 쓰게 된다면 더 큰 위험이 찾아올 것”이라고 덧붙였다.

    특히, 토비 왈시 교수는 AI 살상 무기가 한반도의 평화에도 위협이 될 수 있다고 언급해 주목을 끌었다. 그는 "몇 주가 지나면 비핵화에 대한 더욱 명확한 결과가 나오겠지만 전 세계적으로 우리가 완전히 안전하고 평화로운 상태에 있다고 볼 수 없다"며 "생화학 무기 사용에 대한 규제의 목소리가 있었던 것처럼 민간 기업의 '킬러 로봇'의 생산을 막도록 노력해야 할 것"이라고 강조했다.

    토비 왈시 교수는 2015년 7월 AI 국제회의(IJCAI)에서 AI를 활용한 군사용 자율 로봇 상용화에 반대하는 서한 작성을 주도했다. 이 서한에는 2587명의 AI 로봇 개발자를 포함해 엘론 머스크 테슬라 최고 경영자, 스티브 워즈니악 애플 공동 창업자, 고(故) 스티븐 호킹 교수 등 1만7972명의 민간 유명 인사가 동의했다.

    내가 본 뉴스 맨 위로

    내가 본 뉴스 닫기