인공지능(AI) 이미지./pixabay

AI에게 그림을 그려달라고 하면, 손가락이 3개이거나 얼굴이 뒤틀린 그림이 나오기도 한다. 국내 연구진이 이런 오류를 줄일 수 있는 생성형 인공지능(AI) 설계 원리를 제시했다.

윤성환·유재준 울산과학기술원(UNIST) 인공지능대학원 교수 연구진은 AI 모델의 강건성과 일반화 성능을 동시에 높일 수 있다는 것을 이론과 실험으로 입증했다고 22일 밝혔다. 연구 결과는 지난 19일 미국 하와이에서 개막한 AI 분야의 국제 학회 '2025 ICCV(International Conference on Computer Vision)'에 채택됐다.

이미지 생성 AI에는 챗GPT의 DALL·E와 같은 확산모델이 쓰인다. 이 같은 확산모델은 짧은 생성 과정에서 오차가 누적되거나, 모델을 소형기기에 옮기기 위해 압축하는 과정에서 발생하는 양자화 오류, 입력에 미세한 교란을 심어 출력을 흔드는 적대적 공격 등에 취약한 문제가 있다.

연구진은 이러한 문제가 AI의 일반화 성능이 부족해서라고 봤다. 일반화 성능은 학습에 쓰지 않은 새로운 데이터나 환경에서도 모델이 안정적으로 작동하는 능력을 말한다.

연구진은 문제의 해법을 손실 함수의 최저점 골짜기 모양에서 찾았다. 손실 함수는 AI가 예측한 결과와 정답의 차이를 수치로 나타낸 것으로, 값이 낮을수록 학습이 잘된 상태를 뜻한다. AI는 학습 과정에서 손실값을 줄이는 방향으로 나아가는데, 이 최소 지점이 좁고 가파르면 작은 흔들림에도 성능이 쉽게 무너지고, 반대로 넓고 평평한 최소점에 도달하면 새로운 상황이나 방해에도 성능이 안정적으로 유지되는 것이다.

실험 결과, 평탄한 최소점을 찾는 학습 알고리즘 중 SAM(Sharpness-Aware Minimization)이 가장 효과적인 것으로 드러났다.

연구진은 "단순히 이미지 품질을 높이는 것을 넘어, 다양한 산업과 실제 환경에서도 믿고 쓸 수 있는 생성형 AI의 설계 원리를 제시했다는 점에서 의미가 크다"며 "챗GPT 같은 대규모 생성 모델을 소량 데이터만으로도 안정적으로 학습하게 하는 기반이 될 것"이라고 말했다.

참고 자료

arXiv(2025), DOI: https://doi.org/10.48550/arXiv.2503.11078