메타 AI 로고./로이터연합

“거대언어모델(LLM)은 논리에 대한 이해가 매우 제한적이다. 물리적 세계를 이해 못할 뿐더러 지속적인 기억력이 없으며, 용어에 관한 합리적 정의를 추론할 수도, 계층적으로(hierarchically) 계획할 수도 없다.”

메타의 인공지능(AI) 책임자이자 AI 수석 과학자인 얀 르쾽은 23일(현지 시각) 파이낸셜타임스(FT) 인터뷰에서 이 같이 말하고 “LLM은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것”이라고 했다.

그는 “이에 따라 기계 장치들에서 ‘초지능(superintelligence)’을 만들어 내기 위한 급진적인 방식의 대안에 집중하고 있다”고 덧붙였다.

르쾽은 AI 기술을 개척한 공로를 인정받아 2019년 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 공동 수상했으며, 마크 저커버그 메타 최고경영자(CEO)의 핵심 고문 중 한 명이다. 르쾽은 메타의 자체 AI 연구소로 2013년에 설립된 ‘페어’(FAIR·Fundamental AI Research)에서 약 500명으로 이뤄진 팀을 이끌고 있다.

그는 “고급 LLM에 의존해 인간 수준의 지능을 만드는 것에 반대한다”면서 “이러한 모델들은 올바른 학습 데이터가 제공돼야 정확하게 응답할 수 있어 본질적으로 안전하지 않다”고 설명했다. 다만 “인간 수준의 지능을 갖춘 기계들을 구동할 완전히 새로운 세대의 AI 시스템 개발에 힘쓰고 있다”며 “이런 비전을 달성하는 데는 10년이 걸릴 수 있다”고 말했다.

그의 이번 발언은 메타와 경쟁사들이 더욱 발전된 LLM을 추진하는 가운데 나왔다. 오픈AI의 샘 올트먼 CEO 등은 범용인공지능(AGI·사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI)을 만드는데 LLM들이 중요한 단계를 제공할 것으로 믿고 있다. 메타는 마이크로소프트(MS)가 지원하는 오픈AI, 구글을 포함하는 경쟁사들을 따라잡기 위해 자체 LLM 개발에 수십억 달러를 쏟아붓고 있는 상황이다.