오픈AI./오픈AI 홈페이지 캡처

챗GPT를 개발한 오픈AI가 26일(현지 시각) AI 모델이 지속적으로 개선되면서 나타날 위험을 우려해 대비팀을 구성하고 있다고 밝혔다. 오픈AI를 비롯해 구글 딥마인드, 마이크로소프트, 아마존, 메타 등 주요 AI 기업도 안전 정책을 구축해 실행할 것으로 보인다.

오픈AI는 자사 블로그를 통해 “현재 가장 발전된 기존 모델의 기능을 뛰어넘는 최첨단 AI 모델이 모든 인류에게 혜택을 줄 수 있으나 심각한 위험을 초래할 수 있다”며 “고성능 AI 시스템의 안전에 필요한 이해와 인프라를 확보해야 한다”고 밝혔다. 이어 그 일환으로 대비(Preparedness)라는 새로운 팀을 구성하고 있다고 덧붙였다.

AI의 위험에 대비하기 위한 팀은 알렉산더 매드리 매국 매사추세츠공대(MIT) 머신러닝센터장이 맡을 예정이다. 오픈AI는 사이버 보안과 화생방 및 핵무기(CBRN) 위협, 자율 복제와 적응 등에 걸친 치명적인 위험을 추적, 평가, 예측, 보호할 예정이라 밝혔다.

또 대비 팀은 AI 모델의 역량 평가와 모니터링 체계를 개발하고 보호 조치와 감독을 위한 거버넌스 구조를 구축하기 위한 정책을 연구할 예정이다. 오픈 AI는 AI 대비 챌린지를 시작해 상위 10개 제출물에 2만 5000달러(약 3400만원) 상당의 응용프로그램 인터페이스 크레딧을 제공할 것이라고도 전했다.

이는 다음 달 영국에서 열리는 AI 정상회담을 앞둔 조치로 보인다. AI 정상회담은 AI 기업과 정부, 시민사회단체, 연구자들이 한자리에 모여 AI의 위험을 고려하고 완화할 방법을 논의하는 자리다. 본격적인 회담 시작에 앞서 구글 딥마인드, 마이크로소프트, 아마존, 메타 등 주요 AI 기업은 27일(현지 시각) 미셸 도넬란 과학혁신기술부 장관의 요청에 따라 안전 정책을 설명했다.

도넬란 장관은 “이것은 대화의 시작이며 기술이 발전함에 따라 이러한 프로세스와 관행은 계속해서 발전할 것”이라며 “AI 모델에 대한 대중의 신뢰를 높이는 데에는 개방성이 핵심인 만큼 AI 기업이 안전 정책을 발표하는 것을 환영한다”고 밝혔다. 영국은 AI 안전 프로세스를 마련한 데 이어 세계 최초의 AI 안전 연구소를 설립할 계획이다.