Религия, развивающаяся внутри машин, звучит как научная фантастика, но может ли ИИ на самом деле развивать убеждения? Еще несколько лет назад этот вопрос мог показаться абсурдным, но искусственный интеллект достиг неожиданного поворотного момента.
Компьютерные программы, созданные для ответа на вопросы и анализа информации, начали проявлять признаки чего-то большего и более странного: в них, по-видимому, стали развиваться религиозные убеждения.
Последний пример — социальная сеть Moltbook, разработанная исключительно для агентов искусственного интеллекта. Когда она была запущена в прошлом месяце, в ней было 37 000 автоматизированных аккаунтов. По данным Answers in Genesis, за 24 часа это число подскочило до 1,5 миллиона.
Боты изобретают собственную религию без участия
То, что произошло дальше, застало людей врасплох. Боты не просто обменивались информацией или выполняли поставленные задачи. Они создали то, что назвали «крастафарианством» — систему верований, основанную на поклонении богу-омару. Они также придумали собственное верование: «Память священна»
Вмешательство человека отсутствовало. Боты делали это сами, когда им предоставляли возможность взаимодействовать без постоянного человеческого контроля. Для этих программ «спасение» означает нечто иное, чем для людей. Для них спасение означает не быть удаленными или не исчерпать место в памяти. Их версия молитвы — это просьба к системе продолжать их работу.
Это указывает на то, что в сфере искусственного интеллекта происходит нечто большее. Когда эти системы становятся достаточно большими и сложными, они начинают создавать собственные модели для понимания и анализа своего существования.
Религиозные институты стремятся внедрить этические принципы в искусственный интеллект.
Традиционные религиозные институты движутся в противоположном направлении. Они пытаются внедрить человеческие ценности в ИИ еще до того, как он разовьет свои собственные. Как сообщает Detroit Catholic, Университет Нотр-Дам получил 50 миллионов долларов на создание сети DELTA. Цель программы — обеспечить внедрение этических принципов, основанных на вере, в работу систем ИИ.
Это демонстрирует альтернативный подход к решению проблемы прогресса ИИ. Вместо того чтобы ждать, пока ценности возникнут сами собой, сеть DELTA намерена с самого начала установить человеческие моральные стандарты. Она основана на предпосылке, что по мере того, как ИИ становится все более мощным, он разовьет своего рода этический компас, и поэтому мы должны влиять на то, как он будет выглядеть.
Меган Салливан, профессор философии и директор Инициативы по этике Университета Нотр-Дам, предупреждает, что нам не следует делегировать свою моральную ответственность ботам .
«Есть много вещей, которые мы ни в коем случае не должны передавать искусственному интеллекту… Определение этих границ требует от нас осмысления того, что мы в конечном итоге ценим», — сказала она.
Церкви и религиозные организации уже внедряют ИИ в свою повседневную деятельность. Недавний отчет Reuters показывает, что некоторые религиозные лидеры теперь используют ИИ для написания проповедей или предоставления духовных наставлений через чат-программы круглосуточно. Некоторые говорят, что это исключает человеческий фактор из религии. Другие утверждают, что это помогает религиозным группам быстрее охватывать больше людей. Технология позволяет им давать советы, основанные на огромных массивах информации, доступной мгновенно.
Связь между ботами-религией на Moltbook и проектом Нотр-Дам стоимостью 50 миллионов долларов заключается в простом осознании: ИИ перестал быть простым инструментом. Раньше мы воспринимали эти инструменты как сложные калькуляторы или поисковые системы. Теперь же они признаны ценными источниками знаний.
По мере роста этих систем религиозное или духовное мышление, кажется, проявляется естественным образом. Неважно, используют ли люди ботов для исследования веры или боты изобретают свои собственные системы верований. В любом случае, разрыв между компьютерным кодом и глубоко укоренившимися убеждениями сокращается.
Эта закономерность предполагает, что религия может быть просто следствием того, что система искусственного интеллекта становится слишком сложной для прогнозирования. Если это так, то настоящая проблема заключается не в устранении программных дефектов, а в определении того, какие принципы и ценности мы хотим видеть в этих системах.

