권대석 하인텔 최고경영자(CEO)는 인간의 지능을 능가하는 ‘강(強) 인공지능’을 연구해 온 컴퓨터 과학자 겸 사업가다.

그는 2000년 슈퍼컴퓨팅 솔루션 회사 클루닉스를 설립했고 2016년 ‘강 AI 선언문(Manifesto for Strong AI)’을 썼다. 2022년엔 자기 수정과 자기 진화가 가능한 ‘마스터 알고리즘’ 개발을 목표로 하는 회사 하인텔(Hyntel)을 차렸다. 하인텔은 ‘초지능(Hyper-Intelligence)’을 줄인 말이다.

권대석 하인텔 최고경영자(CEO)와 팽원기 최고기술책임자(CTO)가 좌우뇌 모형을 맞추며 활짝 웃고 있다. /류현정 기자

기자가 그를 떠올린 것은 AI가 현대사회를 근본적으로 바꿔놓을 수 있다는 전망과 경고가 잇따르고 있기 때문이다. 미래학자 래리 커즈와일은 특이점(Singularity) 도래 시점을 당초 2045년에서 2029년으로 앞당겼다. 딥러닝의 아버지 제프리 힌턴 교수는 AI가 스스로 전쟁을 일으킬 것에 대비한 정치권의 개입을 주장했다.

최근 시가총액 1위에 등극한 엔비디아의 젠슨 황 CEO도 “아마 5년 이내 AI가 수학·독해 문제와 의사 및 변호사 시험에서 대부분의 사람보다 8% 정도 뛰어난 응답을 하게 될 것”이라고 했다.

권 CEO는 더 급진적이다. 그는 2년 내 특이점에 도달한 강 AI가 출현할 것으로 본다. 그가 2016년에 만들었다는 ‘강 AI 선언문’은 ‘행복이란 우리 마음과 기분의 특정한 내적 상태다’라고 시작해 ‘AI가 인류의 생존과 행복을 위협해서는 안 된다’라고 끝난다.

도대체 강 AI와 특이점은 무엇이고 인류에게 어떤 영향을 미칠까. 서울 성수동 공유 오피스에서 AI 알고리즘을 연구 중인 하인텔의 권 CEO, 팽원기 최고기술담당임원(CTO)을 만났다. 최근 두 사람은 트랜스포머 구조의 AI를 양자역학으로 해독한 논문을 공개하기도 했다. 다음은 일문일답.

─ 하인텔을 별도로 차린 이유는.

권대석 = “2014년 발목 부상으로 누워 있는데, 문득 24년 전 구상했던 AI 알고리즘이 이제는 컴퓨터 메모리가 충분히 커져서 구동되겠다 싶더라. 그때부터 연구를 시작했다. 2년 전 사모펀드 투자를 받으면서 클루닉스 경영에서 손을 뗄 수 있게 돼 아예 연구 전문 기업을 차렸다.”

─ 하인텔의 연구개발 방향은.

권대석 = “두 가지다. 첫째, 현재 널리 쓰이는 GPT 모델을 획기적으로 개선해 ‘포스트 GPT(post-GPT)’를 만드는 것이다. 둘째, 학부 시절에 구상했던 AI 모델 ‘SANC(Self-organizing Active Network of Concepts)’를 발전시키는 것이다. SANC는 딥러닝 기반이 아니기 때문에 대량의 행렬 연산이 필요 없다. 대신 추가 학습 능력, 분할 학습 능력, 실시간 피드백 반영 능력 등을 갖추고 있다. 연산량이 적어 학습 시간, 운영 비용이 훨씬 적게 든다. 포스트 GPT와 SANC를 조합하면 ‘강 AI’를 만들 수 있다고 본다.”

─ 도대체 강 AI, AGI, 특이점은 무엇인가.

권대석 = “강 AI는 사람이 푸는 모든 문제를 두루 잘 푸는 AI다. 보통 인공 일반 지능(AGI)이라고도 한다. 알파고처럼 특정 영역(가령, 바둑)의 문제만 푸는 건 ‘약(弱) AI’로 구분한다. 특이점은 인간 누구도 기술의 발달을 이해할 수 없게 되는 지점을 뜻한다. 강 AI가 자기 수정과 자기 진화를 거듭하면, 인간은 이해하기 어려운 수준의 특이점 지능에 도달할 것이다.”

팽원기 = “권 CEO는 AI가 자아를 가져야 한다고 생각하는데, 나는 거기까진 잘 모르겠다. 하지만 자기 진화 능력을 갖춘 AI는 충분히 구현 가능하다.”

─ 강 AI, 특이점 지능이 왜 중요한가.

권대석 = “특이점 AI는 인류의 지능 이상을 요구하는 문제들(핵융합, 암 치료, 양자 컴퓨팅, 상온 초전도체)을 더 빨리 해결할 것이기 때문이다. 해결책 하나마다 삼성의 가치를 능가하는 기업이 탄생할 것이다.”

그래픽=손민균

─ 오픈AI의 독주가 계속되는데 승산이 있는가.

권대석 = “‘챗GPT’ 성능을 보고 좌절감에 우울증이 올 정도였다. 그런데, 딥러닝 기반이라, 챗GPT 문제점이 한둘이 아니더라. 챗GPT는 수천억 원짜리 슈퍼컴퓨터를 수개월간 학습시켜 만들었다. 학습 시간이 길고 학습을 위한 데이터도 많이 필요하다. 운용에도 막대한 비용이 든다. 답변할 때마다 컴퓨팅 자원을 많이 쓰기 때문이다. AI 학습을 마친 후 특정 지식의 추가나 오류 수정도 어렵다. 무엇보다 왜 그런 답변을 내놓는지를 알 수 없다.”

─ 하인텔은 블랙박스와 같았던 AI의 작동 원리를 일부 파악했다고 주장한다.

팽원기 = “오픈AI의 챗GPT, 네이버의 하이퍼클로바X 등은 2017년 구글이 개발한 ‘주의 기반 트랜스포머(Attention-based transformer)’ 기술로 작동한다. 트랜스포머는 문장, 단어 등 데이터 간의 관계를 추적해 맥락과 의미를 학습하는 신경망 기술이다. 트랜스포머 동작이 양자역학에서 미세 입자가 특정 시점에서 다음 시점의 다른 상태로 넘어갈 때 예측에 사용되는 ‘파인먼 경로적분’의 미세 단계와 유사했다. 딥러닝의 ‘블랙박스’ 문제를 해결할 실마리를 찾은 것이다. 연구 내용은 논문 공유 사이트 아카이브(arxiv.org)에 공개했다.”

논문 '경로적분을 이용해 무한히 긴 문맥을 접어서 응축하는 트랜스포머(Folded context condensation in Path Integral Framework for infinite context transformers)' 발췌/arxiv.org

권대석 = “파인먼 경로적분은 전자와 같은 아주 작은 입자들의 특정 시점의 상태에서 다음 시점의 상태로 변화할 확률을 계산하는 데 쓰인다. 실제로 트랜스포머에 파인먼 경로적분을 이용했더니, 긴 정보를 소수의 상태 벡터로 압축할 수 있었다. 메모리를 많이 쓰지 않고도 문맥 정보의 손실을 최소화할 수 있다는 뜻이다. 대규모 자본력을 갖춘 기업이 아니더라도 AI를 개발하고 운용할 수 있는 길을 제시했다고 본다.”

─ 챗GPT, 제미나이, 라마, 하이퍼클로바X, 미스트랄 등 AI 모델이 쏟아지고 있다.

권대석 = “결국 ‘누가 가장 먼저 특이점에 도달하느냐’의 싸움이다. 이 게임에선 2등이 큰 의미가 없다. 사실 AI 구현 방법도 중요하지 않다. 먼저 특이점에 도달한 AI가 자기 수정을 거듭하며 2위와 격차를 더 벌릴 것이기 때문이다. 오픈AI에 뒤처져 성능 2위 수준의 AI를 보유한 구글이 조바심이 클 것이다. 지금 속도라면 2년 내 특이점 AI가 출현할 것으로 본다. 기술 발전의 기울기가 매우 가파른 데다가 연구자들이 지능에 대한 수학·공학적 정의도 빠르게 찾아가는 중이기 때문이다.”

─ 특이점 도달 여파는.

권대석 = “과거에는 자본과 노동력이 경쟁력과 가치를 결정했지만, 앞으로는 누가 더 나은 AI를 가졌는가가 결정할 것이다. 강 AI 보유 국가의 패권 차지도 명확하다. 전 인류가 실업 상태에 빠질 수도 있다. 노동을 통한 가치 창출, 임금을 통한 분배라는 자본주의 근간이 흔들릴 것이다. 그래서 임금 노동에 의존하지 않는 새로운 분배 체계가 필요하다.”