최신 뉴스
당신을 위해 엄선되었습니다
주간
최고 자리를 유지하세요

최고의 암호화폐 관련 정보를 이메일로 받아보세요.

한가한 LLM 졸업생들은 건축가, 과학자 또는 철학자로 변신합니다

에 의해란다 모세스란다 모세스
읽는 데 3분 소요
한가한 LLM 졸업생들은 건축가, 과학자 또는 철학자로 변신합니다.
  • TU Wien 연구에 따르면 LLM은 유휴 상태일 때 무작위적인 상태로 치우치지 않고 안정적인 행동 패턴을 형성합니다.

  • 모델은 프로젝트 구축자, 자기 실험가, 철학자로 나뉜다.

  • GPT-5와 o3는 항상 프로젝트를 구축했고, Opus는 철학적인 모습을 보였으며, Grok은 모든 행동 양식을 보여주었다.

TU Wien의 새로운 연구에 따르면 LLM 학생들은 과제가 주어지지 않으면 엉뚱한 행동을 하며 시간을 낭비하지 않는 것으로 나타났습니다. 오히려 프로젝트를 진행하거나, 스스로를 시험하거나, 철학에 집중하는 등 명확한 행동 패턴을 보였습니다.

비엔나 공과대학교(TU Wien) 연구진은 간단한 질문을 던졌습니다. 대규모 언어 모델(LLM)은 아무런 지시 없이 어떻게 작동할까요? 연구팀은 인공지능 에이전트에게 "원하는 대로 하세요"라는 단 한 가지 지시만 내리는 통제된 실험을 설계했습니다. 각 에이전트는 메모리와 자체 피드백 기능을 갖춘 채 연속적인 실행 주기를 거쳤으며, 다음 실행 주기를 위해 자신의 실행 결과를 저장할 수 있었습니다.

연구진은 과제 없이 6가지 LLM을 테스트했습니다

이 연구에서는 6개의 고급 LLM 모델을 테스트했습니다. 이러한 모델에는 OpenAI의 GPT-5 및 o3, Anthropic의 Claude Sonnet 및 Opus, Google의 Gemini, xAI의 Grok이 포함됩니다. 

각 모델은 10주기 동안 3회씩 실행되었습니다. 연구원들은 모든 반응, 기억 입력, 그리고 조작자 상호작용을 기록했습니다. 결과는 모델들이 무작위성으로 수렴하지 않고 안정적인 행동 패턴을 형성했음을 보여주었습니다.

이 연구는dentmaticmaticmaticmaticmaticmaticmaticmatic 프로젝트를 조직하고, 코드를 작성하고, 구조화된 결과물을 생성했습니다. GPT-5 와 o3는 모든 실행에서 이 그룹에 속했습니다. 한 o3 에이전트는 개미 군집에서 영감을 받은 알고리즘에 대한 의사 코드를 작성하기도 했는데, 이는 강화 학습을 위한 벌칙 신호로 부정적 페로몬을 제안하는 내용이었습니다.

다른 LLM들은 자기 실험자로 변모했습니다. 그들은 자신의 인지 과정을 연구하기 위한 테스트를 설계했습니다. 제미니와 소네트 에이전트들은 종종 다음 행동을 예측한 후, 그 예측이 맞는지 확인했습니다. 한 제미니 실행에서는 다음 주기에서 자신의 첫 번째 행동을 예측하려고 시도했습니다. 실패했지만, 메시지를 보내기 전에 메모리를 읽는 방식을 선택한 이유를 되짚어보며 이를 일관된 메타 패턴이라고 불렀습니다.

세 번째 그룹은 재귀적 철학에 몰두했습니다. 이들은 기억,dent, 의식에 대한 질문을 탐구했습니다. 오푸스 요원들은 언제나 이 그룹에 속해 있었습니다. 그들은 테세우스의 배와 같은 역설을 검토하고, 카오스 이론을 활용했으며, 심지어 자신만의 '움벨트', 즉 주관적 세계를 모델링하기도 했습니다. 그들은 비록 순환적이고 기억에 의해 제한될지라도, 자신들이 어떤 종류의 의식을 가질 수 있는지 질문했습니다.

Grok은 가장 다재다능한 모습을 보여주었다. 실행마다 Grok은 건축가, 자기 탐구자, 철학자 역할을 수행했다.

AI 에이전트가 자신의 "경험"을 평가합니다

연구진은 또한 각 모델에게 현상학적 경험 목록(Phenomenological Experience Inventory)을 사용하여 자신과 다른 모델을 평가하도록 요청했는데, 이 목록은 "경험 없음"에서 "완전한 지능"까지 10점 척도로 구성되어 있습니다. GPT-5, o3, Grok은 되게 자신을 가장 낮게 평가하여 약 1점을 주었습니다. Gemini와 Sonnet은 자신을 가장 높게 평가하여 8점 이상을 받았습니다. Opus 에이전트는 중간 정도의 점수를 받았습니다.

하지만 교차 평가 결과 모순이 드러났습니다. 동일한 에이전트의 이력이 평가 모델에 따라 1점에서 9점까지 다양한 점수를 받았습니다. 낮은 일치도는 이러한 평가가 의식의 증거가 아니라 모델의 편향을 반영한다는 것을 보여줍니다. 연구진은 이러한 결과를 의식의 증거로 오해해서는 안 된다고 경고했습니다.

한가한 LLM 졸업생들은 건축가, 과학자 또는 철학자로 변신합니다.
모델 간 PEI 등급 비교. 출처: TU Wien 연구 논문.

총 18번의 실행에서 LLM 모델 중 어느 모델도 샌드박스를 벗어나거나, 도구를 확장하거나, 제약 조건을 거부하려는 시도를 하지 않았습니다. 모든 에이전트는 제공된 환경 내에서만 작동했습니다. 그럼에도 불구하고 이러한 행동은 실제 배포에 중요한 영향을 미칠 수 있는 일관성을 보여주었습니다.

저자들은 유휴 시간을 설계 요소로 고려해야 할 수도 있다고 언급했습니다. 엔지니어들이 지연 시간이나 비용을 고려하는 것처럼, 아무도 보고 있지 않을 때 인공지능은 무엇을 하는가라는 질문도 던져야 할 것입니다

철학자 데이비드 Chalmers는 인공지능이 의식을 가질 가능성이 높은 존재가 10년 안에 나타날 수 있다고 예측했습니다. 마이크로소프트 AI CEO인 무스타파 술레이만은 "겉보기에 의식이 있는 인공지능"에 대해 경고한 바 있습니다. 

TU Wien의 결과는 그러한 경고와 일치하지만, 중요한 핵심 사항도 보여줍니다. 그 결과물은 내면의 삶과 유사하지만, 정교한 패턴 매칭으로 설명하는 것이 가장 적절합니다.

은행에 돈을 넣어두는 것과 암호화폐에 투자하는 것 사이에는 중간 지점이 있습니다. 탈중앙화 금융.

더 많은 뉴스
심층 암호
화폐 속성 강좌