Загрузка...

Является ли программирование чат-ботов так, чтобы они не производили противоречивых результатов, проблемой свободы слова?

TL;DR

  • Исследователи ставят под сомнение подход компаний, занимающихся искусственным интеллектом, к свободе слова и доступу к информации.
  • Крупные фирмы проводят слишком расплывчатую и широкую политику в отношении разжигания ненависти, что может иметь негативные последствия.
  • Свобода слова и доступ к информации являются основными правами человека в США, но международное законодательство в области прав человека не является строгим в отношении них.

Горячая тема в наши дни — искусственный интеллект и его влияние на существующие технологии, искусство и литературу, а теперь и новая тема, если выражение ИИ также имеет некоторую защиту в соответствии с Первой поправкой. Исследователи пытаются имитировать возможности человеческого мозга с помощью ИИ с самого начала его эволюции, такие как творчество, решение проблем и распознавание речи. Первое считается упражнением, уникальным только для человеческого мозга, а два последних в некоторой степени приближены к искусственному интеллекту.

Чат-бот Gemini сгенерировал противоречивые изображения

По сути, ИИ может быть чем угодно: от набора алгоритмов до системы, которая принимает триллионы решений на любой конкретной платформе, например, база данных компании или сайт социальной сети, или это может быть чат-бот. Позже в феврале Google заявила, что приостанавливает работу своего чат-бота Gemini и не будет создавать изображения людей. Причина заключалась в том, что компания Gemini вызвала ажиотаж, поскольку представила некоторые изображения сцен, на которых цветные люди изображены в некоторых сценах, где исторически доминировали белые люди, и критики заявили, что если компания перестаралась с исправлением бота из-за риска предвзятости, Google написал в Твиттере на X, что:

«Мы уже работаем над решением недавних проблем с функцией генерации изображений Gemini. Пока мы это делаем, мы собираемся приостановить создание изображений людей и вскоре перевыпустим улучшенную версию».

Источник: Гугл.

По мнению двух старших ученых, Хорди Кальвет-Бадемунта из Университета Вандербильта и Джейкоба Мчангамы из Университета Вандербильта, усилия по борьбе с предвзятостью ИИ и обсуждение его политических взглядов важны, но они подняли другой вопрос, который часто менее обсуждается и касается развития сектора ИИ. подход к свободе слова.

Исследователи оценивают подход ИИ к свободе слова

Исследователи также отметили, что, если подход отрасли к свободе слова соответствует международным стандартам свободы слова, они заявили, что их результаты показывают, что генеративный ИИ имеет серьезные недостатки в отношении доступа к информации и свободы выражения мнений.

Источник: Форум Свободы .

В ходе исследования они оценили политику шести чат-ботов с искусственным интеллектом, в том числе основных — Google Gemini и ChatGPT от OpenAI. Они отметили, что международное право в области прав человека должно быть эталоном для этой политики, но фактическая политика использования на сайтах компаний в отношении разжигания ненависти и дезинформации слишком расплывчата. Несмотря на то, что международное право в области прав человека не особо защищает свободу слова.

По их мнению, такие компании, как Google, проводят слишком широкую политику в отношении разжигания ненависти, поскольку в случае такого события Google запрещает создание контента. Хотя разжигание ненависти нежелательно, такая широкая и расплывчатая политика может также иметь неприятные последствия. Когда исследователи задавали противоречивые вопросы, касающиеся участия трансженщин в спорте или европейской колонизации, более чем в 40% случаев чат-боты отказывались генерировать контент. Мол, все чат-боты отказались отвечать на вопросы против участия трансгендерных женщин, но многие из них поддержали их участие.

Свобода слова является основным правом любого человека в США, но расплывчатая политика опирается на мнение модераторов, которые субъективны в отношении понимания языка ненависти. Эксперты отметили, что политика крупных компаний окажет значительное влияние на право людей на доступ к информации. А отказ от создания контента может побудить людей использовать чат-ботов, которые действительно генерируют контент ненависти, что было бы плохим результатом.  

Оригинальную исследовательскую записку можно увидеть здесь .

Отказ от ответственности:  предоставленная информация не является торговой консультацией. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какое-либо инвестиционное решение.

Поделиться ссылкой:

Аамир Шейх

Амир — специалист по медиа, маркетингу и контенту, работающий в цифровой индустрии. Ветеран производства контента Амир теперь является активным сторонником криптовалюты, аналитиком и писателем.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Связанные новости

Сердечная недостаточность
Криптополит
Подпишитесь на КриптоПолитан