일상생활에도 점차 영향을 미치고 있는 인공지능(AI)에 대한 윤리규범이 나왔다. 사람의 영역을 침범하지 말고 공정성을 지키고, 결과에 책임을 지라는 것이 골자다.

유럽연합(EU) 집행위원회는 8일(현지 시각) '신뢰할 수 있는 AI를 위한 윤리 가이드라인'을 발표했다. 총 41페이지 분량의 이 보고서는 7개 조항으로 구성돼 있다. 의료, 교육을 비롯한 다양한 상황에서 소비자와 마주할 AI가 지켜야 할 원칙들로 유럽 각국의 전문가 52명이 만들었다.

첫 번째는 '인간의 관리 감독' 아래에 있으라는 것이다. AI가 사람의 자율성을 짓밟아선 안 되고 AI의 모든 결정에 사람이 감독, 개입할 수 있어야 한다는 내용이다. 두 번째는 기술적 견고·안전성이다. AI는 안전하고 정확하며, 외부 공격에 쉽게 손상되지 않고 합리적으로 신뢰할 수 있어야 한다는 것이다. 또 AI의 결정을 인간이 이해할 수 있어야 한다는 투명성, 연령·성별·인종 등에 따라 사람을 차별해선 안 된다는 다양성·공정성에 대한 규정도 담겼다. 이밖에 지속 가능성, 개인정보 보호, 내부 감사(監査)를 통해 AI 문제를 사전에 걸러낼 수 있어야 한다는 책임 조항도 포함됐다.

이런 윤리조항을 만든 이유는 수많은 데이터를 학습한 AI가 실제로 인종, 성(性) 차별을 하는 사례가 등장하고 있기 때문이다. 2015년 구글 AI는 흑인 사진을 고릴라로 인식했다가 인종차별 논란에 휩싸였다. 이듬해 마이크로소프트가 만든 AI챗봇은 히틀러를 옹호하고 인종 차별과 성적인 발언을 연달아 내놔 하루 만에 서비스가 중단됐다. 아마존이 지난해 개발한 AI 채용 프로그램은 여성 지원자를 배제하고 남성만 뽑는 편향적 태도를 보여 자체 폐기되기도 했다.