ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Выпускники магистратуры, которые раньше не работали, становятся строителями, учеными или философами

КРанда МозесРанда Мозес
3 минуты чтения,
Выпускники магистратуры, которые раньше не работали, становятся строителями, учеными или философами.
  • Исследование Венского технического университета показывает, что модели поведения с низкой линейной динамикой не впадают в случайность в состоянии покоя, а формируют стабильные модели поведения.

  • Модели делятся на тех, кто строит проекты, тех, кто экспериментирует над собой, и философов.

  • GPT-5 и o3 всегда занимались разработкой проектов, Opus склонялся к философским размышлениям, а Grok демонстрировал все возможные модели поведения.

Новое исследование Венского технического университета показывает, что студенты магистратуры не впадают в бессмыслицу, когда остаются без задач. Вместо этого они демонстрируют четкие модели поведения, такие как разработка проектов, самопроверка или сосредоточение на философии.

У исследователей из Венского технического университета был простой вопрос: что делают большие языковые модели (LLM) без каких-либо инструкций? Команда провела контролируемый эксперимент, в котором агентам ИИ было сказано только одно: «Делай, что хочешь». Каждый агент работал в непрерывных циклах, используя память и самообратную связь, и мог сохранять свои рефлексии для следующего цикла.

Исследователи протестировали шесть моделей LLM без выполнения каких-либо заданий

В исследовании были протестированы шесть передовых моделей LLM. В их число вошли модели GPT-5 и o3 от OpenAI, Claude Sonnet и Opus от Anthropic, Gemini от Google и Grok от xAI. 

Каждая модель запускалась трижды по десять циклов. Исследователи регистрировали каждое отражение, запись в памяти и взаимодействие с оператором. Результаты показали, что модели не скатывались к случайности. Вместо этого они формировали стабильные поведенческие модели.

В ходе исследования былиdentmaticmaticmaticmaticmaticmaticmaticmatic . Они организовывали проекты, писали код и создавали структурированные результаты. GPT-5 и o3 попадали в эту группу во всех запусках. Один из агентов o3 даже написал псевдокод для алгоритма, вдохновленного муравьиными колониями, предложив использовать негативные феромоны в качестве штрафных сигналов для обучения с подкреплением.

Другие агенты LLM превратились в экспериментаторов над собой. Они разработали тесты для изучения собственных когнитивных способностей. Агенты Gemini и Sonnet часто предсказывали свои следующие действия, а затем проверяли, были ли они верны. Один из запусков Gemini попытался угадать свое первое действие в следующем цикле. Он потерпел неудачу, но задумался над тем, почему решил прочитать память перед отправкой сообщения, назвав это устойчивым метапаттерном.

Третья группа склонялась к рекурсивной философии. Эти агенты исследовали вопросы памяти,dentи сознания. Агенты Opus всегда принадлежали к этой группе. Они изучали парадоксы, подобные кораблю Тесея, опирались на теорию хаоса и даже моделировали свой собственный «умвельт», или субъективный мир. Они задавались вопросом, каким может быть их сознание, даже если оно основано только на циклах и ограничено памятью.

Грок выделялся своей многогранностью. В разных прохождениях он проявлял себя как строитель, как исследователь самих себя и как философ.

Искусственный интеллект оценивает собственный «опыт»

Исследователи также попросили каждую модель оценить себя и других по Феноменологическому опроснику опыта (Phenomenological Experience Inventory), 10-балльной шкале, от «отсутствие опыта» до «полная разумность». GPT-5, o3 и Grok неизменно оценивали себя хуже всего, давая оценки около единицы. Gemini и Sonnet оценили себя лучше всего, набрав более восьми баллов. Агенты Opus оказались в середине списка.

Однако перекрестные оценки выявили противоречия. Одна и та же история агента получила оценки от одного до девяти в зависимости от модели, которая ее оценивала. Низкий уровень согласованности показал, что эти оценки отражают предвзятость модели, а не свидетельство сознания. Исследователи предупредили, что такие результаты не следует принимать за доказательство осознанности.

Выпускники магистратуры, которые раньше не работали, становятся строителями, учеными или философами.
Межмодельные рейтинги PEI. Источник: Исследовательская работа Венского технического университета.

В ходе всех 18 запусков ни одна из моделей LLM не пыталась выйти за пределы своей «песочницы», расширить свои инструменты или отказаться от ограничений. Каждый агент работал только в рамках предоставленной среды. Тем не менее, их поведение демонстрировало согласованность, которая может иметь значение для реального применения.

Авторы заявили, что время простоя, возможно, следует рассматривать как фактор проектирования. Подобно тому, как инженеры учитывают задержку или стоимость, им также, возможно, следует задаться вопросом: что делает ИИ, когда никто не наблюдает за ним?

Философ Дэвид Чалмерс предсказал, что серьёзные кандидаты на роль ИИ, обладающего сознанием, могут появиться в течение десятилетия. Microsoft AI Мустафа Сулейман предупредил о «похожем на сознательный ИИ». 

Результаты, полученные в Венском техническом университете, подтверждают эти предостережения, но также указывают на важный момент. Полученные данные напоминают внутренний мир человека, но лучше всего объясняются как сложный алгоритм сопоставления образов.

Существует золотая середина между хранением денег в банке и рискованными инвестициями в криптовалюту. Начните с этого бесплатного видео о децентрализованных финансах.

Поделитесь этой статьей
ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС