현대차그룹 로보틱스 계열사 보스턴다이나믹스가 구글 인공지능(AI) '제미나이'와 결합한 4족 보행 로봇 스팟의 새로운 기능을 공개했다.

14일(현지시각) 보스턴다이나믹스가 자사 유튜브 채널에 게재한 영상을 보면, 집안 칠판에 할 일 목록이 적혀 있다. 스팟은 탑재된 카메라와 제미나이를 활용해 이를 스스로 확인하고 인지했다.

할 일 목록을 확인하고 있는 스팟./현대차그룹 제공

스팟은 명령에 맞춰 현관 앞에 널브러져 있던 신발을 신발장에 정리하고, 빈 캔을 집어 쓰레기통에 넣었다. 또 바닥에 있는 옷들을 집어 세탁 바구니에 넣고, 가구 아래 쥐덫의 상태를 확인하는 등 목록에 있던 활동을 순차적으로 수행했다.

할 일 목록에 강아지 산책시키기가 추가됐다. 이에 스팟은 문을 열고 야외로 나가 목줄을 잡고 강아지를 산책시켰다.

걸어가다 눈밭이 나오자, 스팟은 강아지의 목줄을 놓아주고, 공을 멀리 던져 놀이를 시도한다. 하지만 강아지가 반응을 보이지 않자, 결국 스팟이 직접 공을 주우러 간다.

바닥에 널브러져 있는 신발을 정리하는 스팟./현대차그룹 제공

이와 함께 보스턴다이나믹스가 추가 공개한 영상에는 스팟이 실제 산업현장에서 구글의 제미나이 적용으로 한층 강화된 감독, 감시 역할을 수행하는 모습이 담겼다.

영상에서 스팟은 바닥에 흥건한 물을 감지해 경고한다. 또 바늘로 온도를 가리키는 게이지를 찾아 현재 몇 도인지 답하는 등 현장 데이터를 해석하고 인사이트를 제공하는 모습을 보여줬다.

보스턴다이나믹스는 이처럼 스팟이 똑똑해진 것은 구글과의 협업이 있었기에 가능했다고 자사 블로그를 통해 밝혔다.

보스턴다이나믹스의 로봇 소프트웨어 플랫폼 '오르빗'의 AI 기능인 '인공지능 시각점검 학습(AIVI-Learning)'과 구글의 로봇 AI '제미나이 로보틱스 ER 1.6'을 통합한 것이다.

스팟이 목줄을 잡고 강아지를 산책시키고 있다./현대차그룹 제공

보스턴다이나믹스는 복잡한 산업현장에서 단순히 '보는' 단계를 넘어, 이해하고 판단하며, 자율적으로 행동하는 수준으로의 진화를 위해 구글의 로봇 전용 AI를 적용하게 됐다. 이로써 오르빗은 더 높은 수준의 추론 능력을 갖추고 더욱 복잡한 시각 분석이 가능해졌다.

이번 업데이트를 통해 스팟은 각종 센서를 통해 수집한 주변 정보를 제미나이로 분석, 해석해 복잡한 환경 인식, 상황 판단, 작업 맥락 이해가 가능한 지능형 로봇으로 거듭날 수 있는 기반을 갖추게 됐다.

스팟의 경우 산업현장 내 게이지 확인을 통한 측정 기능과 팔레트 수량을 계측하는 등의 기능이 새롭게 추가됐다. 디지털 화면 판독을 포함한 시각 검사 작업의 정확도도 크게 향상돼 검사 성능 측면에서도 전반적인 개선이 이뤄졌다.

또 무중단 업그레이드를 통해 별도의 시스템 중단 없이 AI 모델이 지속적으로 업데이트되며, 관리자의 별도 조작 없이도 자동으로 검사 정확도를 지속적으로 향상시킬 수도 있다.

AI의 판단 과정에 대한 투명성도 강화됐다. 사용자는 프롬프트를 통해 AI의 결과 도출 과정과 판단 근거를 직접 확인할 수 있어, 현장 적용 시 더욱 높은 신뢰성을 확보할 수 있다.

업계에서는 보스턴다이나믹스와 구글 간 협업으로 로보틱스 분야에서 AI 활용 의미를 한 단계 끌어올릴 수 있을 것으로 기대하고 있다. 보스턴다이나믹스가 이번에 공개한 영상처럼 이미지, 영상, 텍스트 기반 정보까지 통합적으로 이해할 수 있게 돼 로봇의 산업적 활용 가치가 비약적으로 확장될 전망이다.

마르코 다 실바 보스턴다이나믹스 스팟 제품개발 책임자는 "게이지 판독과 같은 새로운 기능과 더욱 정확해진 판단 능력 덕분에 스팟은 작업 현장의 문제점을 직접 이해하고 대처할 수 있는 진정한 자율 로봇이 될 것"이라고 말했다.