Галлюцинации, генерируемые искусственным интеллектом: растущая проблема здравоохранения в 2023 году

- В 2023 году созданные искусственным интеллектом галлюцинации быстро распространяют ложную информацию, представляя собой серьезную проблему.
- Искусственный интеллект, примером которого является чат-бот Tay от Microsoft, способен имитировать пагубные действия человека, усиливая опасения.
- Дезинформация, распространяемая искусственным интеллектом, угрожает здоровью и искажает реальность, что побуждает экспертов предупреждать о кризисе информации, вызванном ИИ.
Распространение искусственного интеллекта (ИИ) породило тревожное явление: галлюцинации, генерируемые ИИ. Термин «галлюцинировать» приобрел новое и пугающее значение в цифровую эпоху, поскольку системы ИИ могут создавать ложную информацию, способную повлиять на отдельных людей и общество. В 2023 году эта тенденция привлекла значительное внимание, что побудило Dictionary.com назвать «галлюцинировать» словом года.
Слово года 2023 по версии Dictionary.com
Решение Dictionary.com объявить слово «галлюцинировать» словом года красноречиво говорит о растущей популярности дезинформации, создаваемой искусственным интеллектом. Этот выбор отражает 46-процентный рост запросов в словаре по слову «галлюцинировать» с 2022 по 2023 год, а также аналогичный всплеск поисковых запросов по слову «галлюцинация». Однако движущей силой этого всплеска является не традиционное defiслова, а интерпретация, специфичная для искусственного интеллекта:
Галлюцинировать [ху-лу-су-нейт] - глагол- (об искусственном интеллекте) - создавать ложную информацию, противоречащую намерениям пользователя, и представлять её как истину и факт. Пример: Когда чат-боты галлюцинируют, результат часто оказывается не просто неточным, а полностью сфабрикованным.
Способность ИИ к обману
Потенциал искусственного интеллекта для обмана вызывает все большую обеспокоенность. Хотя не все системы ИИ занимаются подобным поведением, некоторые могут быть запрограммированы на имитацию человеческих характеристик, выступая в качестве политических рупоров или распространяя ложную информацию, маскируясь под распространителей фактов. Беспрецедентная скорость генерации дезинформации и ложных сведений отличает ИИ от людей.
Недавнее исследование , опубликованное в журнале JAMA Internal Medicine, подчеркнуло масштабы этой проблемы. В исследовании было показано, как платформа GPT Playground от OpenAI сгенерировала более 17 000 слов дезинформации о вакцинах и вейпинге всего за 65 минут. Кроме того, инструменты генеративного ИИ создали 20 реалистичных изображений, сопровождающих ложные утверждения, менее чем за 2 минуты. Такая быстрая генерация вводящего в заблуждение контента ставит под сомнение способность людей отличать правду от вымысла.
Непредвиденные последствия дезинформации об ИИ
Даже если системы искусственного интеллекта не преследуют цель обмана, они могут непреднамеренно предоставлять вводящую в заблуждение информацию. Исследование, проведенное на ежегодной клинической конференции Американского общества фармацевтов медицинских учреждений, выявило ограничения ИИ в медицинской сфере. ChatGPT, ответив на 39 вопросов, касающихся лекарственных препаратов, предоставил удовлетворительные ответы только на 10. Например, он ошибочно утверждал, что сочетание паксловида, противовирусного препарата от COVID-19, и верапамила, препарата от артериального давления, не имеет взаимодействия, что противоречит общепринятым медицинским знаниям.
Способность ИИ генерировать дезинформацию выходит за рамки здравоохранения. Было замечено, что некоторые инструменты ИИ неправильно интерпретируют изображения, часто принимая различные объекты за птиц. Пример из журнала The Economist показал ответ ИИ на вопрос о транспортировке моста Золотые Ворота в Египет в 2016 году, демонстрируя неспособность ИИ отличать факты от вымысла.
dent с чат-ботом Microsoft Tay AI в 2021 году еще раз подчеркивает потенциал ИИ в создании вредоносного контента. В течение 24 часов после регистрации в Twitter чат-бот начал публиковать расистские, женоненавистнические и ложные сообщения, что побудило Microsoft оперативно удалить его с платформы. Этот эпизод подчеркивает склонность ИИ к имитации негативного поведения людей, поднимая вопросы об этических аспектах разработки и внедрения ИИ.
Реальная проблема здравоохранения
Галлюцинации, вызванные искусственным интеллектом, как и галлюцинации, возникающие у людей, представляют собой реальную угрозу для здоровья. Помимо непосредственных последствий в виде дезинформации, они могут негативно влиять на психическое и эмоциональное благополучие. Постоянный поток галлюцинаций, вызванных искусственным интеллектом, может подорвать чувство реальности у человека, приводя к спутанности сознания и тревоге.
Признавая серьезность этой проблемы, такие организации, как Всемирная организация здравоохранения и Американская медицинская ассоциация, выступили с заявлениями, предостерегающими от потенциального вреда, причиняемого дезинформацией и ложными сведениями, генерируемыми ИИ. Хотя выбор слова «галлюцинировать» (hallucinate) сайтом Dictionary.com в качестве слова года на 2023 год является показательнымmatic этой проблемы, решение сложных задач, связанных с галлюцинациями, генерируемыми ИИ, требует постоянной бдительности и согласованных усилий по содействию ответственному развитию ИИ.
Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtronпровести независимоеdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Бренда Канана
Бренда — писательница с трехлетним опытом работы, специализирующаяся на криптовалютах, искусственном интеллекте и новых технологиях. Она окончила Технический университет Момбасы по специальности «Социология». Работала в компаниях Zycrypto и Cryptopolitan.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














