Соучредитель Ether Vitalik Buterin представил то, что он называет смелым планом для контролируемого человеком искусственного интеллекта (ИИ), подчеркнув, что такое возникновение необходимо, чтобы избежать антиутопического будущего, в котором власть централизована и выживание человечества поставлено либо на карту, либо невозможно.
Соучредитель видит способности ИИ по-разному . Он считает, что ИИ может быть более могущественным, чем люди, и, следовательно, будет продвигать эволюцию и выявлять лучшие инновационные практики в нескольких отраслях.
Но Бутерин все еще боится, что если ИИ станут слишком автономными, они могут начать вызывать серьезные конфликты с человеческими интересами. Как непреднамеренно выпущенная сила, искусственный интеллект может быстро прыгать, что может положить конец человеческой жизни.
Искусственный интеллект сейчас продвигается так быстро и делает свои собственные цели. При этом это может создать общество, которое пугает некоторых, но хорошо работает для других. В истории эволюции этот шаблон знаком и часто трагичен.
Насколько это может показаться в нынешних законодательных дебатах, это будущее становится правдоподобным из-за опросов, которые предлагают нетривиальный шанс на экзистенциальный риск со стороны AIS. Эти выводы подчеркивают, что крайне важно установить структуры, которые могут разумно направлять развитие ИИ.
ИИ дает возможность человечеству достичь великих интеллектуальных подвигов
Бутерин рассматривает ИИ как инструмент, который может расширить возможности отдельных людей и совершать великие интеллектуальные и практические подвиги. Такой подход помогает углубить сотрудничество с ИИ с людьми и рассматривает технологии как расширение человеческого агентства.
В связи с тем, что интерфейсы мозга-компьютера (BCIS) стали подходом с потенциальными преимуществами. BCIS обеспечивает стопку прямого нейронного общения между людьми и искусственным интеллектом, уменьшая ожидание между обменами человека и ИИ с секундами до миллисекунды.
Эти достижения могут гарантировать, что человеческие решения оставались под контролем, технологии служат людям значимыми способами, а автоматизированные системы никогда не работают за пределами человеческой власти. Это разделение подкрепляется BCIS, которая защищает автономию, поскольку интеллектуальные системы становятся более интегрированными с человеческим познанием.

Бутерин также подчеркивает наличие некоторых важных «дистиллированных человеческих суждений», касающихся систем ИИ в принятии решений. Это идея управления поведением ИИ путем активации мудрости толпы и предоставления возможных моральных вводов, которые могут управлять поведением машины. Также важно, чтобы разработчики вставляли человеческие суждения в системы искусственного интеллекта, так что технологии более тесно отражают социальные нормы и ожидания.
Децентрализация ИИ для защиты от концентрации власти
Аргумент Бутерина также зависит от децентрализации развития и контроля ИИ. Он предупреждает о ситуациях, в которых технологии искусственного интеллекта становятся монополией нескольких крупных агентов, которые приходят, чтобы контролировать крайнюю централизацию власти. В результате способность формировать развитие ИИ может эффективно опираться на руки лишь нескольких людей, возможно, в ущерб обществу, написанного большим.
Блокчейны и доказательства нулевого знания являются примерами обеспечения технологий, которые помогают сделать децентрализацию реальностью, которая может быть одним из подходов к более справедливому развитию ИИ среди сообществ.
Это демократизирует исследование ИИ, ограничивает то, как накапливается власть, и гарантирует, что ИИ является коллективным блага, а не конкретным.
Бутерин, в частности, заявляет, что децентрализованный ускорительный акселерализм - это быстрое развитие технологий для защиты индивидуальной автономии от централизованного контроля. Он фокусируется на увеличении защитных возможностей, чтобы догнать потенциальное доминирование систем S tron G AI. При этом развитие защитных технологий должно предшествовать согласованному обществу.
Благодаря его широкому охвату и универсальной тенденции к мысли, основанной на решении, Buterin Ident-необходимость потенциальной коррекции курса по траектории технологии. Теперь он призывает всех заинтересованных сторон - от исследователей и политиков для широкой общественности - работать активно вместе, чтобы сформировать траекторию ИИ.
Ссылаясь на регулирование и управление развитием технологий, основой этих приоритетов является необходимость в этических руководящих принципах и нормативных рамках вокруг ИИ.
Криптополитическая академия: скоро появится - новый способ заработать пассивный доход с DeFi в 2025 году. Узнайте больше