오픈AI, 앤트로픽 등 글로벌 생성형 인공지능(AI) 기업들이 청소년 보호 조치 강화에 나서고 있다. 이들 기업은 청소년인지 판별하는 도구를 도입하는가 하면, 청소년을 대상으로 안전한 답변을 제공하도록 응답 조건을 명시했다. 소셜미디어(SNS)에 이어 AI 챗봇 역시 청소년 정신건강에 대한 우려가 확산하면서 보호 조치 강화가 불가피해진 것으로 보인다.
오픈AI는 지난 18일(현지시각) 18세 미만 사용자를 대상으로 한 AI 모델의 행동 지침을 담은 '모델 스펙'(Model Spec)을 개정하고, 청소년과 부모를 위한 AI 교육 자료를 새로 공개했다. 개정안은 4가지 새로운 원칙을 도입했는데, 청소년 안전을 최우선 가치로 삼고, 지적 자유 등 다른 목표와 충돌할 경우 안전한 선택지를 제시하도록 규정했다. 또 챗GPT가 오프라인 관계와 실제 지원을 장려하고 청소년 이용자에게는 성인과 동일하게 대하지 않고 따뜻함과 존중을 바탕으로 응답하도록 명시했다.
또 오픈AI는 챗GPT 소비자용 요금제에 연령 예측 모델을 차례로 도입하고 있다고도 밝혔다. 이 모델은 대화 주제, 시간대 등을 분석해 이용자가 18세 미만인지를 판별한다. 이용자가 미성년자로 판별되거나 나이가 불분명하면 챗GPT는 즉시 '18세 미만' 환경을 적용해 폭력적 묘사나 위험한 행동을 조장하는 챌린지, 성적 역할극, 신체 왜곡 콘텐츠 등을 차단한다. 또 미성년 이용자에게 안전 문제가 발생하거나 위험한 것으로 평가되는 대화가 이뤄질 경우 챗GPT는 긴급 서비스나 위기 지원기관에 연락하라고 이용자에게 강하게 권고하게 된다.
앤트로픽도 이와 유사한 청소년 보호 조치를 추진한다. 앤트로픽은 자사 챗봇 클로드와의 대화 과정에서 이용자가 미성년자일 가능성을 시사하는 미묘한 대화 신호를 감지하는 시스템을 개발 중이다. 미성년자로 확인된 계정은 비활성화되며, 대화 중 스스로 미성년자임을 밝힌 이용자는 이미 별도로 표시되고 있다. 또 앤트로픽은 자살 및 자해 관련 질문에 대한 응답 훈련 방식과 해로운 사고를 그대로 강화하는 '아첨'을 줄이고 있다고 밝혔다. 회사는 최신 모델들이 지금까지 중 가장 낮은 수준의 아첨을 보였다고 평가했다.
최근 SNS에 이어 AI 챗봇도 청소년 정신건강에 대한 우려가 확산하면서, 보호 조치 강화가 불가피해진 것이다. 생성형 AI가 학습·상담·일상 대화 영역까지 빠르게 침투하면서 청소년이 유해 정보나 과도한 정서적 의존에 노출될 수 있다는 지적이 잇따르고 있다. 실제 미국 캘리포니아주의 고등학생 애덤 레인을 비롯한 미성년자들이 챗GPT와 대화한 이후 망상이나 우울증 등에 시달리다 생을 마감하자 유가족들은 오픈AI가 미성년 안전장치 없이 서비스를 출시했다며 소송을 제기한 바 있다.
업계에서는 이러한 조치가 자율 규제 성격을 띠고 있지만, 향후 각국 정부의 규제 논의와 맞물려 표준으로 자리 잡을 가능성도 제기되고 있다. 실제 일부 국가는 SNS 금지 조치를 내리고 있다. 호주는 지난 10일부터 만 16세 미만 아동의 SNS 이용을 금지했다. 이를 위반할 시 최대 5000만호주달러(약 480억원) 정도의 벌금이 부과된다. 말레이시아도 내년 16세 미만 청소년의 SNS 사용을 금지할 계획이고, 덴마크와 노르웨이는 15세 미만 어린이를 대상으로 비슷한 조치를 준비 중이다.
AI 챗봇 역시 정부가 나서 규제하기 전에 선제적 규제 움직임을 띄고 있다. 캘리포니아주에서는 미성년자와 취약계층 보호를 위해 AI 챗봇을 규제하는 법안이 주의회를 통과했다. 내년부터 발효되는 이 법안은 AI 챗봇 운영 기업에 플랫폼 이용자의 연령 확인 기능과 함께 AI 챗봇의 모든 답변이 인공적으로 생성된 것임을 명확히 표시하는 기능 등을 갖추도록 의무화했다.
IT업계 관계자는 "AI 챗봇이 청소년의 일상과 정서에 미치는 영향이 커진 만큼, 성인과 동일한 기준을 적용하는 것은 더이상 적절하지 않다"며 "글로벌 AI 기업들 입장에서는 SNS처럼 정부 규제가 본격화되기 전에 회사 차원에서 선제적으로 안전장치를 마련하려는 움직임이 본격화하고 있다"고 말했다.