황의종 KAIST 전기및전자공학부 교수 연구진이 AI가 학습 상황과 달라진 새로운 분포의 데이터에 대해서도 편향되지 않은 판단을 내리도록 돕는 훈련 기술을 개발했다./연합뉴스

인공지능(AI) 기술의 발달로 편향성을 우려하는 목소리가 커지는 가운데, 국내 연구진이 AI의 공정성을 유지할 방법을 개발했다.

KAIST는 “황의종 전기및전자공학부 교수 연구진이 AI가 학습 상황과 달라진 새로운 분포의 데이터에 대해서도 편향되지 않은 판단을 내리도록 돕는 훈련 기술을 개발했다”고 30일 밝혔다. 이번 연구는 지난 7월 미국 하와이에서 열린 머신러닝 최고권위 국제학술 대회 ‘국제 머신러닝 학회(ICML)’에서 발표됐다.

AI 기술이 사회 전반에 걸쳐 광범위하게 활용되며 인간의 삶에 많은 영향을 미치고 있다. 한편 최근 범죄자의 재범 예측을 위해 머신러닝 학습에 사용되는 콤파스(COMPAS) 시스템을 기반으로 학습된 AI 모델이 인종별로 서로 다른 재범 확률을 부여할 수 있다는 심각한 편향성이 관찰됐다. 이 밖에도 채용, 대출 시스템 등 사회의 중요 영역에서 AI의 다양한 편향성 문제가 밝혀지며, 공정성을 고려한 머신러닝 학습의 필요성이 커지고 있다.

전 세계의 연구자들이 AI의 공정성을 높이기 위한 다양한 학습 방법론을 제안하고 있지만, 대부분의 연구는 AI 모델을 훈련할 때 사용되는 데이터와 실제 테스트 상황에서 사용될 데이터가 같은 분포를 갖는다고 가정한다. 하지만 실제 상황에서는 다양한 애플리케이션에서 학습 데이터와 테스트 데이터 내의 편향 패턴이 크게 변화할 수 있어 이러한 가정이 대체로 성립하지 않는다. 따라서 AI가 과거의 데이터를 기반으로 공정하게 학습되더라도 현대의 데이터에는 오히려 불공정한 판단을 내릴 수 있다는 한계가 있다.

연구진은 이러한 문제를 해결하기 위해 `상관관계 변화(correlation shifts)’ 개념을 도입해 기존의 공정성을 위한 학습 알고리즘들이 가지는 정확성과 공정성 성능에 대한 근본적인 한계를 이론적으로 분석했다. 예를 들어 특정 인종만 주로 채용했던 과거 데이터의 경우 인종과 채용의 상관관계가 강해서 아무리 공정한 모델을 학습시켜도 현재의 약한 상관관계를 반영하는 정확하면서도 공정한 채용 예측을 하기가 근본적으로 어렵다.

이러한 이론적인 분석을 바탕으로, 새로운 학습 데이터 샘플링 기법을 제안해 테스트 시에 데이터의 편향 패턴이 변화해도 모델을 공정하게 학습할 수 있도록 하는 새로운 학습 프레임워크를 제안했다. 이는 과거 데이터에서 우세하였던 특정 인종 데이터를 상대적으로 줄임으로써 채용과의 상관관계를 낮출 수 있다.

채용과 인종의 상관관계가 변할 때 훈련 데이터를 개선하는 예시./KAIST

이번에 제안한 기법은 데이터 전처리만 하기 때문에 기존에 제안된 알고리즘 기반 공정한 학습 기법을 그대로 활용할 수 있었다. 즉 이미 사용되고 있는 공정한 학습 알고리즘이 위에서 설명한 상관관계 변화에 취약하다면 제안된 기법을 함께 사용해서 해결할 수 있다.

연구의 제1저자인 노유지 KAIST 전기및전자공학부 박사과정생은 “이번 연구를 통해 인공지능 기술의 실제 적용 환경에서, 모델이 더욱 신뢰할 수 있고 공정한 판단을 하도록 도울 것으로 기대한다ˮ고 밝혔다. 황의종 교수는 “기존 인공지능이 변화하는 데이터에 대해서도 공정성이 저하되지 않도록 하는 데 도움이 되기를 기대한다ˮ고 전했다.

참고 자료

ICML2023: Proceedings of the 40th International Conference on Machine Learning, LINK: https://dl.acm.org/doi/10.5555/3618408.3619621