거울을 보는 원숭이. 과학자들이 동물의 표정으로 감정을 읽는 인공지능(AI)을 개발하고 있다./Andre Mouton/Unsplash

감정은 표정으로 나타난다. 연인의 얼굴만 잘 살펴도 사소한 말다툼이 세계대전으로 발전하는 것을 막을 수 있다. 이스라엘 하이파대의 안나 자만스키(Anna Zamansky) 교수는 고양이도 표정을 읽고 갈등을 피한다는 사실을 알아냈다. 감정을 잘 살피는 사람이 사회성이 높듯 상대 표정을 잘 따라 하는 고양이는 동료들과 잘 지냈다.

과학자들이 사람처럼 동물의 표정을 읽는 데 도전하고 있다. 집에 있는 개와 고양이부터 농장의 돼지와 말, 양까지 표정을 감지하는 인공지능(AI)을 잇달아 개발했다. 동물의 표정을 읽을 수 있다면 반려동물과 사람의 갈등을 줄이고 가축 사육 환경도 최적화할 수 있을 것으로 기대된다.

◇표정 좌우하는 근육 변화 포착

자만스키 교수는 지난해 11월 국제 학술지 ‘사이언티픽 리포트’에 고양이가 생각보다 사회성이 높다는 사실을 AI로 알아냈다고 발표했다. 고양이는 코를 찡그리거나 윗입술을 살짝 올리는 식으로 표정을 짓는데, 상대가 따라 하면 60%가 같이 놀거나 상대의 털을 손질했다. 표정을 통해 교감을 한 것이다.

이스라엘 하이파대 연구진은 고양이 표정에서 감정을 읽는 인공지능(AI)을 개발했다. 표정을 좌우하는 근육 부분에 점을 찍고 위치 변화로 어떤 표정인지 알아내는 방식이다./이스라엘 하이파대

연구진은 고양이 얼굴 영상에서 특정 근육 부분에 표시한 점의 위치가 어떻게 달라지는지 감지해 표정을 파악했다. 이런 방식은 다른 동물에서도 검증됐다.

스웨덴 농업과학대의 피아 하우브로 앤더슨(Pia Haubro Andersen) 교수는 지난해 말의 고통을 표정으로 감지하는 AI를 개발했다고 발표했다. 연구진은 말의 얼굴에서 표정을 좌우하는 부분을 점으로 표시했다. 고통을 느끼면 눈 아래위에 표시한 점이 가까워지고 코 좌우의 점은 멀어졌다. 말이 고통을 느끼면 눈에 주름이 지고 콧구멍이 벌어진다는 것이다(아래 그래픽 참조).

과학자들은 오래전부터 동물이 인간처럼 표정을 통해 감정을 전달한다는 사실을 알았다. 진화 이론을 정립한 찰스 다윈은 1872년에 출판한 저서에서 표정은 포유류 사이에서 일종의 ‘공통 언어’라고 주장했다.

다윈은 해부학에 근거해 이 이론을 세웠다. 포유류는 표정을 만드는 데 사용되는 안면 근육을 상당 부분 공유한다는 것이다. 인간은 표정을 짓는 근육 중 38%가 개와 일치한다. 고양이와도 34% 공유한다. 말 역시 영장류와 표정 근육이 47% 같았다.

다윈의 이론은 신경세포 차원에서 입증됐다. 독일 막스 플랑크 신경생물학연구소 연구진은 2020년 사이언스에 뇌 신경세포와 표정이 연관돼 있다는 증거를 제시했다. 표정이 감정을 반영한다는 사실을 동물 실험으로 확인했다.

그래픽=정서희

◇사람보다 AI가 동물 감정 잘 읽어

과학자들은 그동안 얼굴 사진에서 감정을 읽는 일을 수작업으로 진행했다. 표정을 좌우하는 부분에 찍은 점이 어떻게 변하는지 일일이 눈으로 확인하는 식이었다. AI는 이를 자동화했다. 영상을 컴퓨터에 입력하면 바로 표정에 나타난 감정을 알아냈다. 하이파대의 자만스키 교수는 2023년 AI가 고양이의 표정으로 고통을 겪는지 77% 정확도로 알아냈다고 발표했다.

표정을 읽는 AI는 신약 개발에 도움을 줄 수 있다. 실험동물에 약물을 투여하고 통증 여부를 표정으로 감지할 수 있기 때문이다. 미국 노스캐롤라이나대 연구진은 2022년 AI가 생쥐 사진을 보고 통증 여부를 사람보다 100배 빨리 판독했다는 연구 결과를 발표했다. 대규모 동물 실험 결과를 해독할 때 AI가 안성맞춤인 셈이다. 과학자들은 AI가 수작업의 오류를 줄이는 동시에 여러 연구실에서 나온 실험 결과를 쉽게 비교할 수 있다고 본다.

같은 방법으로 가축 사육에도 도움을 줄 수 있다. 브라질 과학자들은 AI에 수술과 진통제 투여 전후의 말 사진 3000장을 학습시켰다. 나중에 얼굴 사진만 보고 88% 정확도로 고통을 겪는지 알아냈다. AI는 수의사가 놓친 통증도 알아냈다.

영국 과학자들은 돼지의 표정에서 스트레나 통증 여부를 감지하는 인공지능(AI)인 인텔리피그(Intellipig)를 개발했다./SRUC

영국 케임브리지대 피터 로빈슨(Peter Robinson) 교수는 2017년 양(羊) 얼굴의 5곳에 나타난 변화를 영상으로 분석해 양이 고통을 받고 있는지, 통증이 어느 정도인지 감지하는 AI를 개발했다. 연구진에 따르면 양이 아프면 눈이 반쯤 감기거나 뺨이 홀쭉하게 변하고 귓바퀴가 안 보일 정도로 귀가 뒤로 돌아간다. 평소 완만한 U자인 코끝이 아플 경우 날카로운 V자 모양으로 바뀌고 입술은 아래로 처진다. AI는 이런 변화를 감지해 발굽 질환이나 유선염에 걸린 암양을 골라냈다.

최근에는 AI가 돼지 사육 환경을 개선하고 있다. 웨스트 잉글랜드 브리스톨대와 스코틀랜드 농대 연구진은 돼지의 표정으로 통증이나 스트레스를 감지하는 AI 시스템인 인텔리피그(Intellipig)를 개발했다. AI는 개별 돼지를 97% 정확도로 구별해 인간을 능가했다. 집에서 키우는 개와 고양이도 AI의 도움을 받을 수 있다. 예를 들어 AI로 고양이가 상대의 표정을 모방하는 정도를 알아내면 어떤 동료와 잘 지낼 수 있을지 예측할 수 있다.

물론 AI가 동물의 표정을 읽는 데 한계가 있다. 인간 표정을 읽는 AI보다 학습 자료가 부족하기 때문이다. 인터넷에는 사람 얼굴 사진이 넘치지만, 동물의 감정을 보여주는 얼굴 사진은 부족하다. 과학자들은 AI가 체온이나 동작 같은 다른 신체 정보도 같이 학습하면 이런 한계를 보완할 수 있다고 본다. 동물 소리도 유용한 정보이다. 덴마크 코펜하겐대 연구진은 돼지가 태어나서 죽을 때까지 녹음한 소리를 AI로 분석해 감정 상태를 92% 정확도로 알아내는 기술을 개발했다. 표정 인식 AI가 동물 소리를 번역하는 AI와 결합하면 머지않아 스마트폰을 켜고 동물과 교감할 수 있을 것이다.

참고 자료

Scientific Reports(2024), DOI: https://doi.org/10.1038/s41598-024-79216-2

Scientific Reports(2024), DOI: https://doi.org/10.1038/s41598-023-50383-y

bioRxiv(2022), DOI: https://doi.org/10.1101/2022.08.12.503790

PLoS ONE(2021), DOI: https://doi.org/10.1371/journal.pone.0258672

Science(2020), DOI: https://doi.org/10.1126/science.aaz9468