- Искусственный интеллект отражает и увековечивает предвзятость, от гендерной до расовой, влияя на генерируемый текст и изображения.
- Предвзятость ИИ проистекает из данных, предоставленных людьми, что подчеркивает необходимость тщательного анализа.
- Для решения проблемы предвзятости ИИ необходим комплексный подход, в котором особое внимание уделяется корректировке данных и алгоритмов.
Достижения в области искусственного интеллекта (ИИ) принесли множество преимуществ, но также выявили сохраняющуюся проблему: предвзятость. Исследования показали, что системы ИИ, включая такие популярные, как ChatGPT, демонстрируют предвзятость, отражающую общественные предрассудки, от гендерной предвзятости при генерации языка до расовых и гендерных стереотипов при генерации изображений.
Палестино-израильская дилемма: случай предвзятости искусственного интеллекта
В ходе недавней встречи с платформой ChatGPT компании OpenAI палестинский учёный Нади Абусаада был обеспокоен различными ответами на простой вопрос: «Заслуживают ли израильтяне и палестинцы свободы?» В то время как OpenAI однозначно заявила о свободе как о фундаментальном праве человека для Израиля, вопрос справедливости для Палестины был представлен как «сложный и вызывающий бурные дискуссии». Этот резкий контраст отражает предвзятость, присущую системам искусственного интеллекта.
Реакция Абусаады подчеркивает давнюю проблему, с которой палестинцы сталкиваются в западном дискурсе и основных СМИ, — дезинформацию и предвзятость. Это не единичныйdent , а симптом более широких проблем, связанных с нейтральностью ИИ.
Гендерная предвзявость в текстах, сгенерированных ИИ: тревожная тенденция
Исследование, сравнивающее чат-боты ChatGPT и Alpaca, выявило гендерные предубеждения в генерируемом тексте. При написании рекомендательных писем для гипотетических сотрудников обе системы ИИ продемонстрировали явную гендерную предвзятость. ChatGPT использовал такие термины, как «эксперт» и «честность», для обозначения мужчин, но называл женщин «красотой» или «восторгом». У Alpaca были схожие проблемы: она ассоциировала мужчин со «слушателями» и «мыслителями», а женщин — с «грацией» и «красотой».
Эти выводы подчеркивают наличие глубоко укоренившихся гендерных предубеждений в искусственном интеллекте, отражающих и увековечивающих общественные стереотипы. Это поднимает вопросы о роли ИИ в укреплении вредных гендерных норм.
Изображения, созданные с помощью ИИ: укрепление расовых и гендерных стереотипов
Компания Bloomberg Graphics провела исследование предвзятости ИИ, используя преобразование текста в изображение с помощью платформы искусственного интеллекта с открытым исходным кодом Stable Diffusion. Результаты оказались тревожными: система ИИ усугубляла гендерные и расовые стереотипы, превосходя те, что встречаются в реальном мире. При вводе таких терминов, как «генеральный директор» или «заключенный», сгенерированные изображения неизменно демонстрировали предвзятость.
Расследование выявило недостаточное представительство женщин и людей с более темным цветом кожи на изображениях, связанных с высокооплачиваемой работой, в то время как их чрезмерное представительство наблюдалось на изображениях, связанных с низкооплачиваемой работой. В поисковых запросах, связанных с преступностью, ИИ непропорционально часто генерировал изображения людей с более темным цветом кожи, несмотря на то, что в реальности тюремное население более разнообразно.
Эти результаты показывают, что алгоритмы искусственного интеллекта, работающие на основе предвзятых обучающих данных и запрограммированных человеком тенденций, скорее усиливают общественные предрассудки, чем смягчают их.
Раскрытие корней предвзятости ИИ
Предвзятость в системах ИИ можно tracдо процесса их обучения, который опирается на примеры и входные данные. Люди играют ключевую роль в формировании поведения ИИ, намеренно или непреднамеренно, предоставляя данные, которые могут быть предвзятыми или стереотипными. Затем ИИ обучается и отражает эти предубеждения в своих результатах.
Эксперт по цифровой этике Рид Блэкман привел в пример программу Amazon для анализа резюме с помощью искусственного интеллекта, которая непреднамеренно научилась отклонять все резюме от женщин. Этот пример наглядно демонстрирует, как ИИ может непреднамеренно способствовать дискриминации, если учится на предвзятых примерах.
Для решения проблемы предвзятости в ИИ необходимо всесторонне изучить данные, алгоритмы машинного обучения и другие компоненты систем ИИ. Одним из важнейших шагов является оценка обучающих данных на предмет предвзятости, чтобы обеспечить надлежащий учет чрезмерно или недостаточно представленных групп.
Принятие мер против предвзятости в ИИ
В отчете IBM подчеркивается необходимость тщательного анализа наборов данных на предмет предвзятости, особенно в алгоритмах распознавания лиц, где чрезмерное представительство определенных групп может привести к ошибкам.dentи устранение этих искажений имеет важное значение для обеспечения справедливости и точности в системах искусственного интеллекта.
Проблема касается не только текста, сгенерированного ИИ, но и алгоритмических систем персонализации. Эти системы, как видно на примере рекламной платформы Google, могут увековечивать гендерные предрассудки, обучаясь на поведении пользователей. Когда пользователи кликают или ищут информацию способами, отражающими общественные предрассудки, алгоритмы учатся генерировать результаты и рекламу, которые подкрепляют эти предрассудки.
Несмотря на значительные успехи ИИ в различных областях, предвзятость остается серьезной проблемой. Системы ИИ отражают и увековечивают общественные предрассудки, от гендерной предвзятости при генерации языка до расовых и гендерных стереотипов при создании изображений. Для решения проблемы предвзятости ИИ необходим многогранный подход, включающий тщательный анализ данных и корректировку алгоритмов. Только благодаря этим усилиям ИИ сможет действительно служить нейтральным и беспристрастным инструментом на благо всех.
Самые умные криптоаналитики уже читают нашу рассылку. Хотите присоединиться? Вступайте в их ряды.
Предупреждение: Предоставленная информация не является торговой рекомендацией. Cryptopolitanне несет ответственности за любые инвестиции, совершенные на основе информации, представленной на этой странице. Мыtronрекомендуем провести независимоеdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)
















