dent Signal Мередит Уиттакер предупредила общественность о рисках, связанных с агентным искусственным интеллектом (ИИ). Выступая на конференции SXSW в Остине, штат Техас, она отметила, что использование агентного ИИ может быть сопряжено с риском нарушения конфиденциальности пользователей.
В заявлении говорится о необходимости безопасных форм коммуникации, поскольку использование агентов ИИ равносильно «заключению мозга в банку». Она добавила, что новая тенденция, когда пользователи позволяют ИИ выполнять задачи от их имени, может создать проблемы как с конфиденциальностью, так и с безопасностью.
Использование ИИ-агентов стало широко распространенным в криптоиндустрии: пользователи в секторе децентрализованных финансов (DeFi) используют эти машины для выполнения таких задач, как заключение сделок, адаптация и даже оптимизация стратегий, практически без участия пользователей. Эти ИИ-агенты также интегрированы в платформы, помогая пользователям торговать проще, эффективнее и быстрее. Однако некоторые боты загружаются до того, как пользователи смогут взаимодействовать с ИИ-агентом.
Президент Signal барабанитdent предостережением по поводу агентов ИИ
По словамdentSignal, различные платформы начинают предлагать ИИ-агентов как форму услуг с добавленной стоимостью, призванных улучшить жизнь пользователей. В своем выступлении Уиттакер отметила, что помимо использования в криптоиндустрии, эти агенты выполняют различные онлайн-задачи для пользователей. Например, ИИ-агенты могут приобретать билеты на мероприятия, планировать события в календаре и отправлять сообщения друзьям.
«Значит, мы можем просто поместить наш мозг в банку, поскольку эта штука делает это сама, и нам не нужно ее трогать, верно?» — спросилdent Signal.
Задав вопрос, она вступила в продолжительное обсуждение разрешений, которые пользователи должны предоставить ИИ-агентам, прежде чем они смогут выполнять все эти задачи, чтобы сделать жизнь пользователей более эффективной. Уиттакер добавила, что это будет включать доступ к нашему веб-браузеру, календарю, мессенджерам, а иногда и к нашей кредитной карте, поскольку система должна оплачивать билеты на мероприятия, которые она для нас бронирует.
«Необходимо будет иметь возможность управлять этим [процессом] по всей нашей системе с помощью чего-то, похожего на права root, с доступом ко всем этим базам данных — вероятно, в открытом виде, поскольку нет модели, которая могла бы сделать это в зашифрованном виде», — добавил Уиттакер.
Заявление Уиттакера призывает к осторожности в индустрии ИИ
В своём заявлении Уиттакер отметила, что ИИ-агенты неэффективны в одиночку, поскольку им необходимы модели ИИ. Она также обсудила взаимосвязь между этим процессом и безопасностью, отметив, что информация отправляется на сервер для обработки перед отправкой обратно.
«Таким образом, существует серьезная проблема с безопасностью и конфиденциальностью, которая преследует эту шумиху вокруг агентов и которая в конечном итоге угрожает разрушить гематоэнцефалический барьер между уровнем приложений и уровнем ОС, объединяя все эти отдельные службы [и] смешивая их данные», — добавил Уиттакер.
Она также отметила, что если Signal решит интегрировать ИИ-агентов в своё приложение, это нарушит конфиденциальность сообщений пользователей. Она добавила, что агенту необходимо получить доступ к приложению, чтобы отправлять сообщения другим людям, а также извлекать информацию для краткого изложения текста.
Её комментарии прозвучали после того, как она приняла участие в дискуссии, где обсуждалось, что индустрия ИИ построена на принципе наблюдения из-за того, как они собирают массовые данные. Уиттакер также добавила, что, по её мнению, чем больше данных собирается, тем больше потенциальных последствий, которые она не считает положительными.
Говоря о агентном ИИ,dent Signal отметила, что «мы еще больше подорвем конфиденциальность и безопасность из-за «волшебного джинна-бота, который позаботится о насущных жизненных потребностях», — заключила она.

