AI 챗봇 '이루다' 논란에...방통위, 'AI 윤리규범' 구체화한다

조선비즈
  • 이경탁 기자
    입력 2021.01.14 14:40 | 수정 2021.01.14 14:41

    방통위, AI 서비스 제도개선 추진…AI 윤리규범도 구체화

    인공지능(AI) 챗봇 이루다 사태로 ‘AI 윤리’ 문제가 급부상하자 방송통신위원회가 관련 제도 개선에 나선다.

    방통위는 사람 중심의 AI 서비스가 제공되고, AI 서비스가 활용되는 과정에서 이용자 보호원칙이 지켜질 수 있도록, AI 윤리규범 등을 구체화해 제도 개선을 추진할 계획이라고 14일 밝혔다.

    AI 챗봇 이루다 이미지. /조선DB
    최근 20세 여대생을 모델로 개발된 AI 채팅로봇 '이루다'의 혐오·차별적인 표현, AI 채팅로봇에 대한 이용자의 성희롱성 발언 등이 사회적으로 큰 논란을 일으킨 바 있다.

    이와 관련해 사업자·이용자·정부 등 지능정보사회 구성원 모두가 AI 윤리의 중요성을 인지하고, 각자가 실천할 방안을 모색해야 한다는 지적이 나왔다.

    이에 방통위는 AI서비스의 이용자보호를 위해 규범 및 제도를 구체화해 나가기로 했다. 방통위는 지난 2019년 11월 ‘차별금지, 인간존엄성 보호’ 등의 내용을 포함한 '이용자 중심의 지능정보사회를 위한 원칙'을 발표한 바 있다. 해당 원칙이 선언적 규정이라면, 올해부터는 이를 실천하기 위한 구체적 사례·방법 등을 사업자 등과 공유한다는 것이다.

    특히 사업자의 규제 부담 및 AI 서비스의 혁신 저해를 최소화하기 위해 민간에서 현재 실천하고 있는 모범 사례를 적극적으로 발굴해 이를 바탕으로 실행 지침을 마련할 계획이다.

    /조선DB
    중장기적으로는 이용자에게 피해를 야기한 AI 서비스의 책임소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다는 방침이다. 이를 위해 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 지난해 9월부터 센터 내에 법제 연구반을 구성하여 운영하고 있다.

    아울러 방통위는 AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고, 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진해 나간다는 방침이다.

    이를 위해 올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시하기로 했다. 교육 내용으로는 이용자가 AI서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등을 담을 계획이다.

    또 내년부터는 신규 예산을 확보해 AI 윤리교육 지원 대상을 이용자에서 사업자로까지 확대하고, 스타트업 등을 대상으로 서비스 설계 시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진할 예정이다.

    한상혁 방통위원장은 "AI 서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만, 올바른 윤리와 규범이 없는 AI 서비스는 이용자 차별과 사회 갈등을 초래할 수 있다"며 "AI기술의 혜택은 골고루 누리되, 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것"이라고 말했다.

    내가 본 뉴스 맨 위로

    내가 본 뉴스 닫기