언어는 진화 과정에서 가장 불가사의한 수수께끼 중 하나입니다. 과학자들은 인간과 다른 영장류가 왜 그렇게 많은 공통점을 가지고 있으면서도 언어 능력을 공유하지 않는지 여전히 확실히 알지 못합니다. 최근 코넬 대학교 연구진이 수행한 연구에서 오랑우탄의 복잡한 언어가 발견되었습니다. 동남아시아에 서식하는 유인원인 오랑우탄은 정교한 음성 의사소통으로 잘 알려져 있습니다. 그러나 연구진은 그동안 오랑우탄 언어의 미묘한 차이를 이해하는 데 어려움을 겪어왔습니다.
3년간의 면밀한 연구 끝에 연구진은 보르네오 오랑우탄의 울음소리, 한숨소리, 그리고 다른 발성 속에 숨겨진 복잡한 패턴을 해독하는 데 성공했고, 이를 통해 오랑우탄의 의사소통 능력에 대한 독특한 정보를 얻을 수 있었습니다.
AI 지원 분석
발표된 이번 연구는 오랑우탄 의사소통에 대한 지식에 있어 중요한 돌파구입니다. 연구팀은 인공지능 탐지 방법을 생물학자 및 생체음향학자들이 훈련된 청각, 지능, 측정 도구만을 사용하여 수행한 연구 결과와 비교함으로써 연구의 신뢰도를 높였습니다.
연구팀은 보르네오 오랑우탄 수컷 13마리가 녹음한 117개의 긴 울음소리 데이터를 수집하고, 이 소리에서 감지된 1,033개의 서로 다른 펄스에 대해 46가지 음향 측정값을 분석했습니다. 그들은 "이러한 특징들은 신호의 복잡성을 크게 높여줄 것으로 보인다"고 이는 인류가 머지않아 유인원들이 무슨 말을 하는지 알게 될 것임을 시사합니다.
이번 연구의 주 저자인 웬디 어브 박사는 "우리의 연구는 인도네시아의 울창한 열대우림에서 오랑우탄들이 광활한 거리를 이동하며 소통하는 데 중요한 역할을 하는 긴 울음소리의 복잡성을 밝히는 것을 목표로 했다"고 밝혔다.
다각적인 접근 방식
연구팀은 2020년 캘리포니아 대학교 샌디에이고에서 '동물 발성 레퍼토리'를 해독하는 데 성공적으로 사용된 최첨단 비지도 학습 알고리즘인 UMAP(Uniform Manifold Approximation and Projection)을 활용했습니다.
UMAP 알고리즘은 프로그래밍 언어 R로 작성된 더 많은 통계 알고리즘을 통해 강화되었습니다. 다른 유형의 지도 학습과 마찬가지로 R이 이 과정에 사용되었지만, 모든 경우에 유인원의 1,033개 고유 발성 단계와 펄스는 60/40 비율로 무작위로 분할되어 60%는 AI 학습에 사용되고 나머지 40%는 새로 학습된 분류 능력의 정확도를 테스트하는 데 사용되었습니다.
연구팀은 지도 학습과 비지도 학습 기법을 결합하여 펄스를 세 가지 주요 유형으로 분류했습니다. 고주파 펄스는 '포효(Roar)', 저주파 펄스는 '한숨(Sigh)', 그리고 이 두 범주 사이에 속하는 펄스는 '중간(Intermediate)'으로 분류했습니다.
그들의 연구는 영장류가 무엇을 말하는지에 초점을 맞추지는 않았습니다. 그럼에도 불구하고, 그들이 어떻게 말하는지를 파악하는 데 도움이 되었습니다. 연구자들은 마침내 오랑우탄이 이전에 생각했던 것보다 훨씬 더 다양한 소리를 사용한다는 사실을 깨달았습니다.
인류 진화에 대한 함의
인간은 가장 복잡한 소리를 낼 수 있는 유일한 영장류이지만, 더 원시적인 영장류가 이러한 능력을 습득한 방식과 인간이 습득한 방식 사이에는 직접적인 연관성이 있습니다. 이를 밝히기 위해 과학자들은 먼저 오랑우탄과 같은 동물들이 사용하는, 보다 "단계적인" 발성이 어떻게 의미를 효과적으로 전달하는지 이해해야 합니다.
오랑우탄의 발성 연구를 통해 과학자들은 궁극적으로 인간이 어떻게 말을 배우게 되었는지 알아낼 수 있을지도 모릅니다. 각 종은 성 선택, 서식지의 특성, 특정한 사회 구조, 포식자의 압력과 같은 진화적 요인의 결과로 복잡한 발성 체계를 만들어냅니다.

