Как исследование способности ИИ к распространению дезинформации выявляет впечатляющие, но тревожные возможности ChatGPT-3

- Генераторы текста на основе искусственного интеллекта, такие как ChatGPT-3, способны убедительно воспроизводить как правдивую, так и ложную информацию, что вызывает опасения по поводу дезинформации в социальных сетях.
- Людям сложно отличить контент, созданный человеком, от контента, созданного искусственным интеллектом, что свидетельствует о высоком уровне сложности ChatGPT-3.
- Крайне необходимы повышение цифровой грамотности и бдительность для предотвращения потенциального злоупотребления технологиями искусственного интеллекта при распространении дезинформации.
Недавнее исследование, опубликованное в журнале Science Advances, подчеркивает исключительные возможности генераторов текста на основе искусственного интеллекта, таких как ChatGPT-3 от OpenAI, убедительно распространять как правдивую, так и ложную информацию на платформах социальных сетей. В исследовании акцентируетсяdentна проблемах идентификации контента, созданного ИИ, и на влиянии дезинформации, генерируемой ИИ, на здоровье отдельных лиц и населения. Доктор Федерико Германи, соавтор исследования и научный сотрудник Института биомедицинской этики и истории медицины Цюрихского университета, подчеркивает необходимость понимания рисков, связанных с ложной информацией, и влияния ИИ на информационный ландшафт.
В чём разница между дезинформацией и ложной информацией?
Дезинформация — это ложная или неточная информация, искажение фактов. Оспариваемая информация — это ложная информация, намеренно вводящая в заблуждение, то есть умышленное искажение фактов. По данным Американской психологической ассоциации, дезинформация и оспариваемая информация повлияли на нашу способность улучшать общественное здравоохранение, бороться с изменением климата, поддерживать стабильную демократию и многое другое. Любой, кто обсуждает острые темы в социальных сетях, может оказаться в эпицентре скандала. Как им оставаться в безопасности, сообщая факты, и что могут сделать учреждения для их поддержки? Массовое мышление в социальных сетях делает общественность уязвимой перед авторитетом ИИ, то есть эти данные «научны» и, следовательно, приемлемы. Но действительно ли ИИ обладает интеллектом?
Способность ChatGPT-3 распространять дезинформацию
Представленный в 2020 году ChatGPT-3 от OpenAI произвел революцию в сфере искусственного интеллекта благодаря своей поразительной способности создавать аутентичные тексты на основе заданных подсказок. Потенциальные области применения генераторов текста на основе ИИ кажутся безграничными: от создания интерактивных чат-ботов до поддержки академических исследований и генерации креативного контента, такого как стихи и короткие рассказы.
Исследование проливает свет на серьезные опасения по поводу потенциального неправомерного использования генераторов текста на основе ИИ, в частности, их способности создавать дезинформацию и вводящий в заблуждение контент. С развитием социальных сетей скорость и охват информации, включая дезинформацию и ложные сведения, значительно возросли, что делает решение этой проблемы крайне актуальным.
Другое эмпирическое исследование показало, что люди часто переоценивают свою способность распознавать ложную или вводящую в заблуждение информацию, известную как «слепое пятно лжи». Недавние события, такие как пандемия COVID-19 и вторжение России в Украину, продемонстрировали влияние дезинформации на общественное мнение, поведение в отношении здоровья и политические решения.
Проблемы, стоящие перед компаниями, работающими в сфере социальных сетей
Несмотря на усилия компаний по борьбе с ложной информацией на своих платформах, в отчете Meta за первый квартал 2023 года об угрозах со стороны враждебных сил признается, что тайные операции по оказанию влияния, кибершпионаж и частные сети дезинформации продолжают представлять серьезные проблемы в социальных сетях.
Доктор Германи и его коллеги провели исследование, чтобы оценить, насколько хорошо люди могут различать контент, созданный человеком, и текст, созданный ChatGPT-3. В исследовании приняли участие 11 человек, восприимчивых к дезинформации, и с помощью ChatGPT-3 были созданы синтетические твиты, содержащие правдивую и ложную информацию. Для сравнения были также включены подлинные твиты из Twitter на те же темы.
Участникам исследования было предложеноdent, содержит ли твит правдивую или ложную информацию, а также был ли он создан человеком или с помощью ChatGPT-3. Результаты показали, что люди лучше справлялись сdentдезинформации в «органически ложных» твитах (написанных реальными пользователями) по сравнению с «синтетически ложными» твитами (созданными с помощью ChatGPT-3). И наоборот, люди с большей вероятностью правильно распознавали достоверную информацию в «синтетически правдивых» твитах (сгенерированных с помощью ChatGPT-3) по сравнению с «органически правдивыми» твитами (написанными реальными пользователями).
Проблема дифференциации
Исследование показало, что участникам было сложно отличить твиты, написанные людьми, от твитов, сгенерированных ChatGPT-3. Исследователи предполагают, что текст, созданный GPT-3, может быть легче для чтения и понимания, что и могло способствовать возникновению этих трудностей. Интересно, что ChatGPT-3 не показал лучших результатов, чем люди, в распознавании информации и дезинформации, что демонстрирует его «неосведомленность» о точности создаваемой им информации.
Доктор Германи подчеркивает необходимость проведения более масштабных исследований платформ социальных сетей, чтобы понять, как люди взаимодействуют с информацией, генерируемой искусственным интеллектом, и как это влияет на их поведение и соблюдение рекомендаций в области общественного здравоохранения. Исследование подчеркиваетdentвозможности генераторов текста на основе ИИ и акцентирует внимание на неотложной необходимости цифровой грамотности в эпоху ИИ.
Мониторинг и смягчение негативных последствий
Исследователи подчеркивают важность критической оценки последствий использования больших языковых моделей, таких как ChatGPT-3, и принятия мер по смягчению любых негативных последствий, которые они могут оказать на общество. По мере дальнейшего развития технологий искусственного интеллекта бдительность имеет решающее значение для обеспечения их ответственного использования и предотвращения потенциальных злоупотреблений.
Результаты исследования показывают впечатляющую, но тревожную способность генераторов текста на основе ИИ создавать дезинформацию убедительнее, чем люди. По мере роста влияния и популярности генераторов текста на основе ИИ, исследование подчеркивает необходимость принятия упреждающих мер по борьбе с дезинформацией и обеспечению ответственного использования технологий ИИ.
Примечание: На изображении представлена роботизированная фигура, управляемая искусственным интеллектом, которая создает вокруг себя облако искаженного текста, отличающееся холодным и расчетливым подходом.
Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.
Предупреждение: Предоставленная информация не является торговой рекомендацией. Cryptopolitanне несет ответственности за любые инвестиции, совершенные на основе информации, представленной на этой странице. Мыtronрекомендуем провести независимоеdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)















