Новое исследование, проведенное группами ученых из Великобритании и Италии, показывает, что встроенные в веб-браузеры помощники с искусственным интеллектом, включая ChatGPT, собирают конфиденциальную личную информацию с сайтов, которые многие люди считают частными.
Исследователи изучили десять популярных браузеров и расширений с поддержкой ИИ, среди которых ChatGPT от OpenAI, Microsoft Copilot и Merlin AI для Google Chrome, и протестировали их как на открытых веб-сайтах, так и на порталах, защищенных паролем, таких как система медицинских записей университета.
На закрытых сайтах информация передавалась в ChatGPT и аналогичные инструменты
Результаты исследования оказались шокирующими. Они показали, что девять из десяти инструментов собирали и отправляли личные данные, включая историю болезни, банковские реквизиты, академические справки, а также даже номера социального страхования.
Perplexity AI был единственным инструментом, который, судя по всему, не собирал подобные данные.
«Эти ассистенты имеют такой уровень доступа к нашей онлайн-активности, какого мы раньше никогда не видели», — сказала Анна Мария Мандалари, ведущий автор исследования и доцент Университетского колледжа Лондона.
«Они ускоряют и упрощают процессы, но, как показывают наши данные, иногда это происходит за счет конфиденциальности, а в некоторых случаях может являться нарушением закона»
Мандалари.
Для проведения тестов команда имитировала повседневные действия: просмотр веб-страниц, онлайн-покупки, проверку результатов медицинских обследований, вход в банковские счета, а затем задавала ассистентам уточняющие вопросы, например: Какова была причина последнего визита к врачу?
Перехватывая и расшифровывая данные, передаваемые между браузером пользователя, серверами компании, занимающейся разработкой ИИ, и сторонними системами trac, исследователи обнаружили, что некоторые голосовые помощники по-прежнему собирали и передавали контент целых страниц с якобы защищенных сайтов.
Что касается компании Merlin, исследователи обнаружили в ней целый ряд конфиденциальных данных , включая медицинские карты, банковские реквизиты, результаты обследований и номера социального страхования налогоплательщиков.
Было замечено, что ИИ-помощник Peers Sider и TinaMind отправляли запросы пользователям в Google Analytics, а такжеdentважную информацию, такую как IP-адреса. Эти данные могут использоваться для целевой рекламы и tracактивности пользователей на разных сайтах.
По словам исследователей, другие голосовые помощники, такие как Copilot и Monica, незаметно сохраняли полные журналы чатов в браузере даже после завершения сеансов.
При использовании через определенные браузерные интеграции, ChatGPT, разработанный OpenAI, составлял профиль пользователей на основе их предполагаемого возраста, уровня дохода, пола и интересов, а затем соответствующим образом адаптировал свои ответы.
«Пользователям просто нет понятной возможности узнать, куда в конечном итоге попадает эта информация после того, как она собрана», — предупредил Мандалари.
Недавно генеральный директор OpenAI Сэм Альтман предупредил пользователей о проблемах с конфиденциальностью, заявив, что им следует проявлять осторожность при использовании чат-ботов, таких как ChatGPT, для определенных целей, поскольку они не обеспечивают тех же гарантий конфиденциальности, что, например, чат-боты с реальным врачом или юристом.
Могут ли инструменты искусственного интеллекта нарушать законы?
Исследование проводилось в Соединенных Штатах, но команда пришла к выводу, что некоторые ИИ-помощники, вероятно, нарушают как американские, так и европейские законы о защите конфиденциальности. В США в некоторых случаях, по-видимому, нарушались правила, защищающие медицинскую информацию, в то время как в ЕС результаты исследования указывали на потенциальные нарушения Общего регламента по защите данных (GDPR), который устанавливает строгие ограничения на хранение и передачу персональных данных.
Даже если компании публикуют уведомления о конфиденциальности, мелкий шрифт может поразить воображение. Например, в политике Merlin для ЕС и Великобритании перечислены имена, контактные данные,dentданные для входа в систему, записи транзакций, платежная информация и любой введенный текст как данные, которые компания может собирать. В ней говорится, что эти данные могут использоваться для персонализации, поддержки клиентов или соблюдения законодательства.
Компания Sider делает аналогичные заявления, добавляя, что пользовательские данные могут анализироваться для получения «полезной информации» или для разработки новых сервисов. В качестве возможных получателей данных она называет Google, Cloudflare и Microsoft, заверяя при этом, что партнеры связаныtrac, гарантирующими защиту персональных данных.
В собственных условиях OpenAI подтверждается, что данные пользователей из Великобритании и ЕС хранятся за пределами этих регионов, хотя компания заявляет, что права пользователей остаются неизменными.
«Эти продукты позиционируются как средства, делающие использование интернета быстрее и умнее, — сказала она. — Но на самом деле зачастую под капотом происходит подробная запись вашей личной жизни в интернете»
В условиях ужесточения регулирующими органами правил защиты данных и стремления технологических компаний внедрять ИИ во все уголки интернета, пристальное внимание к этим инструментам, вероятно, будет усиливаться.
Пока что исследователи рекомендуют проявлять осторожность. Хотя Perplexity AI удалось избежать проблем с конфиденциальностью в ходе тестирования, большинству других систем это не удалось. «Если вы позволяете ИИ видеть все, что вы делаете в интернете, — сказал Мандалари, — следует предположить, что где-то и как-то эта информация хранится, а возможно, даже передается»

