편향성 강화, 가짜 자료 생성 등 인공지능(AI) 윤리 문제와 관련된 대책이 필요하다는 제언이 나왔다. 학계에서는 AI와 관련된 윤리관 확립과 도덕 판단 능력을 갖춘 AI 모델 개발을 해결책으로 제시하고 있다.
전창배 국제인공지능&윤리협회 이사장은 7일 오전 부산 해운대구 벡스코 제1전시장서 열린 ‘AWC 2023 in 부산(이하 AWC 부산)’ 강연자로 참석해 “AI로 인해 인터넷은 물론 의료, 언론 등 다양한 분야에서 윤리 문제가 발생하고 있다”고 말했다.
전 이사장에 따르면 현재 생성형 AI의 발전에 따라 악성코드나 교묘하게 조작된 자료를 생산하는 사례가 늘고 있다. 전 이사장은 “최근 AI를 기반으로 한 딥페이크 기술이 활성화 되면서 실제 인물이 말한 것과 구분하기 어려운 수준까지 도달했다”며 “딥페이크로 정치인의 가짜 발언을 생성해 선거나 지지율에 실질적인 영향을 줄 위험도 커지고 있다”고 설명했다.
전 이사장은 AI가 편향된 사고를 강화할 수 있다는 점도 우려했다. 그는 “생성형 AI 모델에 커피를 들고 선글라스를 낀 사람의 그림을 만들어 달라 명령하자 백인 여성이 담긴 결과물을, 길거리 가판에서 음식을 파는 사람의 그림을 주문하자 아시아계 여성이 담긴 결과물만 내놨다”고 말했다. 이어 “인종에 따라 직업이 나뉜다는 편향적인 사고를 AI가 학습한 셈이다”라고 했다.
그러면서 전 이사장은 AI 기술과 윤리가 비슷한 속도로 발전하는 것이 중요하다고 역설했다. 그는 “AI를 개발하는 것도 사용하는 것도 인간이다”라며 “결국 인간이 바람직한 윤리관을 갖춘 뒤 AI를 개발해야 한다”라고 설명했다. 이어 “AI 기술과 윤리가 동반자 관계로 이어질 수 있게 하는 대책 마련이 필요하다”고 덧붙였다.
이날 강연자로 참석한 김봉제 서울교육대학교 교수는 도덕 판단 AI 개발을 해결책으로 제시했다. 그는 학습 데이터를 구조화하고 도덕 판단 기능이 탑재된 AI 모델을 개발해야 한다고 설명했다. 이를 위해 특정 대상과 관련된 도덕 판단 학습용 데이터 발굴 계획을 수립해야 한다고 말했다. 김 교수는 “어린 학생들도 연령대별 인지 능력에 맞는 교육을 통해 윤리관을 형성해 나간다”며 “이와 비슷하게 AI도 교육을 통해 도덕성을 갖추도록 해야 한다”고 설명했다.
정부는 AI 윤리 문제에 대한 대책 마련에 나선 상태다. 최우석 과학기술정보통신부 인공지능기반정책관 인공지능확산 팀장은 “과기정통부는 AI 윤리 문제 해결을 위해 사회적 논의를 촉진하고 있으며, 이를 토대로 대응책을 마련하고 있다”고 설명했다.