Китай сейчас использует искусственный интеллект для усиления цензуры и репрессий

- Утечка данных показывает, что Китай использует языковую модель на основе искусственного интеллекта, которая сканирует 133 000 элементов для выявления конфиденциального контента в интернете.
- Система нацелена на политическое инакомыслие, социальные волнения и военные темы, при этом Тайвань упоминается более 15 000 раз.
- Эксперты утверждают, что передовые инструменты искусственного интеллекта могут усилить государственный контроль над общественным мнением и подавить критику.
Утечка данных свидетельствует о том, что Китай использует большие языковые модели для усиления своей цензурной системы.
Недавняя утечка информации показала, что сложная система искусственного интеллекта, созданная на основе 133 000 примеров пользовательского контента, предназначена для выявления любых материалов, которые правительство сочтет конфиденциальными.
Обнаруженный исследователем в области безопасности и попавший в распоряжение TechCrunchпоказывает, что Китай предпринимает шаги по расширению своего онлайн-контроля далеко за пределы таких тем, как бойня на площади Тяньаньмэнь.
Китай использует современные технологии для фильтрации онлайн-контента
Утечка, в которой содержатся записи, датированные еще декабрем 2024 года, является явным признаком того, что китайские власти или их представители используют новые технологии для фильтрации онлайн-контента.
База данных включает жалобы на бедность в сельских районах Китая, новостные сообщения о коррумпированных членах Коммунистической партии и призывы о помощи в связи с коррумпированными полицейскими, вымогающими деньги у предпринимателей.
Каждый фрагмент контента поступает в большую языковую модель (LLM), которая сканирует его на предмет тем, способных вызвать общественное недовольство.
Сяо Цян, исследователь из Калифорнийского университета в Беркли, изучающий китайскую цензуру, заявил TechCrunch, что просочившиеся данные являются «явным доказательством» намерения правительства использовать программы LLM для усиления репрессий.
Цян объяснил, что, в отличие от традиционных методов, которые полагаются на человеческий труд для фильтрации по ключевым словам и ручной проверки, LLM может быстро и точноdentдаже незначительные критические замечания, что делает государственный контроль над информацией более эффективным и широкомасштабным.
Система используется не только для цензуры политических тем, но и распространяется на деликатные области социальной жизни и военного дела. Согласно данным, содержащимся в просочившемся наборе данных, любой контент, связанный с загрязнением окружающей среды, скандалами в сфере безопасности пищевых продуктов, финансовым мошенничеством и трудовыми спорами, получает «наивысший приоритет» для цензуры.
Данные показывают, что такие темы, как протесты против загрязнения окружающей среды в Шифане в 2012 году, тщательно отслеживаются, чтобы предотвратить общественные волнения. Даже политическая сатира и исторические аналогии, направленные против нынешних политических деятелей, мгновенно помечаются как неприемлемые. Контент, касающийся тайваньской политики, также находится под пристальным вниманием, а вопросы, связанные с военной тематикой, — включая сообщения о передвижениях, учениях и подробности о вооружении — подвергаются тщательному анализу.
Слово «Тайвань» встречается 15 000 раз в китайских данных о цензуре
Примечательной деталью в просочившемся контенте является то, что китайское слово, обозначающее Тайвань (台湾), встречается более 15 000 раз, что подчеркивает акцент на любых дискуссиях, которые могут бросить вызов официальной версии.
В набор данных также включен конфиденциальный контент, в том числе комментарии о военных возможностях Тайваня и подробности о новом китайском истребителе. Не обходят стороной даже завуалированные формы несогласия; один из примеров, найденных в базе данных, — это анекдот о мимолетности власти, в котором используется популярная китайская идиома «Когда дерево падает, обезьяны разбегаются»
Исследователь в области информационной безопасности NetAskari обнаружил набор данных, который хранился в незащищенной базе данных Elasticsearch на сервере Baidu.
«Работа с общественным мнением» — это термин, используемый для обозначения цензурных и пропагандистских мероприятий, проводимых под контролем влиятельного Управления по делам киберпространства Китая (CAC). Майкл Кастер, руководитель азиатской программы правозащитной организации Article 19, пояснил, что эта работа призвана обеспечить доминирование правительственных нарративов в интернете.
В отчете OpenAI, опубликованном в прошлом месяце, также сообщалось, что некийdentdentdentdentdentdentdentdentdent Ся.
Традиционная цензура в Китае часто опиралась на простые алгоритмы, которыеmaticблокировали контент, содержащий запрещенные термины, такие как «резня на площади Тяньаньмэнь» или «Си Цзиньпин». Пользователи на собственном опыте убедились в этом на примере таких инструментов, как DeepSeek. Однако более новые системы способны обнаруживать даже незначительную критику в больших масштабах, и их эффективность повышается по мере поступления новых данных.
Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














