Your bank is using your money. You’re getting the scraps.WATCH FREE

Является ли ошибочная расовая символика, использованная Gemini в своих приложениях, тревожным сигналом относительно влияния технологических гигантов?

В этом посте:

  • Приложение Gemini AI от Google вызвало споры, генерируя изображения, содержащие расистские высказывания, что демонстрирует бесконтрольную власть технологических гигантов в разработке искусственного интеллекта.
  • Несмотря на оперативные исправления,dent подчеркивает более глубокие проблемы предвзятости и отсутствия прозрачности в алгоритмах искусственного интеллекта, вызывая опасения по поводу их влияния на общество.
  • Призывы к разнообразию в командах, занимающихся разработкой ИИ, и к большей прозрачности в процессах разработки ИИ подчеркивают необходимость этических соображений в быстро развивающейся области искусственного интеллекта.

На недавнем фестивале искусств и технологий South by Southwest в Остине произошло поразительное событие: приложение Google Gemini AI подверглось резкой критике за создание изображений, содержащих расовые неточности, что вызвало ожесточенные дебаты о бесконтрольной власти технологических гигантов в формировании искусственного интеллекта (ИИ). Этотdent, отмеченный изображениями чернокожих и азиатских нацистских солдат и вымышленного чернокожего сенатора США XIX века, служит ярким напоминанием о потенциальных опасностях, таящихся в технологиях ИИ, если их не контролировать.

Презентация несовершенного искусственного интеллекта Gemini

Торжественная презентация приложения Google Gemini AI наsteemфестивале South by Southwest вызвала ощутимый ажиотаж и предвкушение среди участников, с нетерпением ожидавших увидеть передовые инновации в области искусственного интеллекта. Однако за этим последовала бурная волна споров, поскольку пользователи обнаружили тревожную склонность приложения к созданию расистских изображений, в частности, изображений чернокожих и азиатов в нацистской форме — вопиющее искажение исторических реалий, которое быстро вызвало шквал осуждения в различных социальных сетях. 

Несмотря на незамедлительное признание Google проблемы и последующие усилия по устранению вопиющих ошибок,dent высветил более широкие опасения относительно огромного влияния и огромной ответственности, возложенной на таких технологических гигантов, как Google, в определении курса развития искусственного интеллекта.

Смотрите также  триумф Real Axe, достигнутый благодаря искусственному интеллекту, на мероприятии в Ngee Ann Poly.

Проблемы предвзятости и прозрачности в разработке ИИ

Скандал с Gemini не только выявил присущие алгоритмам ИИ предвзятости, но и подчеркнул отсутствие прозрачности в их разработке и внедрении. Как справедливо отметил Чарли Бургойн, генеральный директор лаборатории прикладных наук Valkyrie, попытки Google исправить недостатки Gemini послужили лишь поверхностным решением гораздо более глубокой проблемы. Опора на огромные массивы данных, часто полученных из мира, переполненного культурными предрассудками и дезинформацией, представляет собой серьезную проблему при обучении моделей ИИ точному отражению человеческого многообразия без увековечивания вредных стереотипов.

Кроме того, непрозрачность алгоритмов ИИ, которые критики называют «черными ящиками», усугубляет опасения по поводу скрытых предубеждений и неэтичных процессов принятия решений. Без большей прозрачности и контроля пользователи остаются уязвимыми перед прихотями систем ИИ, работающих вне их понимания, что потенциально усугубляет существующее неравенство и несправедливость в обществе. Призывы к разнообразию в командах разработчиков ИИ и повышению прозрачности в процессах принятия решений на основе алгоритмов подчеркивают острую необходимость этических соображений при проектировании и внедрении технологий ИИ.

Создание будущего для ответственного развития ИИ

По мере того, как общество неуклонно движется к будущему, все больше ориентированному на искусственный интеллект, скандал с Gemini служит ярким напоминанием об этических дилеммах и социальных последствиях, присущих развитию ИИ. Остается вопрос: как мы можем обеспечить ответственное и этичное использование технологий ИИ в мире, где динамика власти технологических гигантов продолжает формировать наше общее будущее? По мере того, как мы разбираемся в сложностях инноваций в области ИИ, одно остается ясным: необходима большая подотчетность, прозрачность и разнообразие в формировании будущего искусственного интеллекта.

См. также:  Новая версия GPT-4.1 от OpenAI выдает более небезопасные и предвзятые ответы.

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan