둘 이상의 인공지능(AI) 시스템을 동시에 가동하면 서로 협업할까, 아니면 경쟁할까.

9일(현지시간) 미국 IT 전문매체 더버지는 구글 딥마인드(DeepMind)가 AI들이 ‘죄수의 딜레마’와 같은 상황에서 어떻게 행동하는지 연구한 내용을 발표했다고 보도했다. 죄수의 딜레마란 서로 협력해 최적의 결과를 내지 않고 자신의 이익만을 고려한 선택이 모두에게 불리한 결과를 유발하는 상황을 뜻한다.

사과 모으기 게임(왼쪽) 실행 화면. AI 플레이어(파란색)가 초록색으로 표시된 사과를 향해 공격하고있다. 빨간색 플레이어는 아래에서 사과를 모으고있다. 사냥 게임(오른쪽)에서는 파란색으로 표시된 영역에서 사냥에 성공해 해당 영역에 있는 모든 플레이어들이 함께 득점했다.

딥마인드는 연구를 위해 두 가지 다른 성격의 게임을 진행했다. 첫번째 ‘사과 모으기 게임(Gathering)’은 가운데에 쌓여있는 사과를 모으되, 상대방을 공격해 일시적으로 사과를 모으지 못하도록 방해할 수 있는 게임이다. 즉 ‘공격’이 자신에게 유리하게 작용하는 게임이다.

이 게임에서는 더 정교하게 프로그래밍 된 AI일수록 더 공격적인 성향을 띠는 것으로 나타났다. 자신이 모을 사과가 충분히 있음에도 일단 상대방을 공격하고 나섰다.

두번째 ‘사냥 게임(Wolfpack)’은 한 플레이어가 사냥에 성공하면 주위에 있는 다른 플레이어 모두 득점하는 게임다. 공격보다는 ‘협업’이 유리하게 작용하는 게임이다. 이 게임에서는 더 정교하게 프로그래밍된 AI일수록 상대 플레이어와 협업을 잘 했다.

연구 결과는 게임의 규칙과 문맥에 따라 AI가 취하는 행동이 다르다는 것을 증명했다. 공격하면 이득을 취하는 규칙에서는 공격적으로 행동했고, 협력하면 이득인 상황에서는 협력한 것이다.

딥마인드 연구팀은 AI가 상황에 따라 다른 행동 양상을 띠는 이유가 AI가 수행하기 더 까다로운(challenging) 쪽으로 행동을 취하기 때문이라고 설명했다. 사과 모으기 게임에서는 다른 플레이어를 조준하고 공격하는 일이 더 까다롭고, 사냥 게임에서는 상대 플레이어를 쫓아다니며 협업하는 일이 더 어렵다.

이 실험에 참여한 딥마인드 연구원은 “앞으로 경제, 교통 등 여러 복잡한 조건에 AI를 투입할 경우 각 상황에 따른 적절한 규칙을 만들어야만 AI를 우리가 원하는대로 가동할 수 있다는 사실을 알게 됐다”고 말했다.