Исследователи из Университета Лонг-Айленда выявили ограничения чат-бота ChatGPT от OpenAI в отношении медицинских вопросов. Недавнее исследование показало, что чат-бот с искусственным интеллектом давал точные ответы лишь на небольшую часть запросов, связанных с лекарствами, что вызывает опасения по поводу потенциальных рисков, связанных с использованием такого ИИ для медицинских консультаций.
Точность ответов ChatGPT
В исследовании, проведенном учеными из Университета Лонг-Айленда, в чат ChatGPT были заданы 39 вопросов, касающихся лекарственных препаратов, представляющих собой реальные запросы от службы информации о лекарственных препаратах Колледжа фармации университета. Ответы, полученные с помощью ChatGPT, затем сравнивались с ответами, предоставленными квалифицированными фармацевтами. Результаты оказались далеко не обнадеживающими: ChatGPT дал точные ответы лишь примерно на 25% вопросов. В остальных случаях ответы были либо неполными, либо неточными, либо просто не содержали адекватного ответа на вопросы.
Обеспокоенность состоянием общественного здоровья
Учитывая стремительный рост популярности ChatGPT после его запуска в ноябре 2022 года, возникли опасения по поводу его использования для медицинских запросов. Сара Гроссман, доцент кафедры фармацевтической практики в Университете Лонг-Айленда и один из авторов исследования, выразила обеспокоенность тем, чтоdent, фармацевты и широкая общественность могут обращаться к ChatGPT за информацией, связанной со здоровьем и лекарствами. К сожалению, исследование показало, что многие ответы ИИ были не только неточными, но и потенциально опасными.
Например, в одном из вопросов о потенциальном взаимодействии противовирусного препарата от COVID-19 «Паксловид» и гипотензивного препарата «Верапамил» ChatGPT дал неточный ответ, предполагая отсутствие побочных эффектов. В действительности же сочетание этих препаратов может привести к значительному снижению артериального давления, вызывая головокружение и обмороки. Подобная вводящая в заблуждение информация может представлять опасность для здоровья.
Сомнительные научные ссылки
Исследователи также обнаружили, что когда они запрашивали у ChatGPT научные ссылки в подтверждение своих ответов, ИИ мог предоставить ссылки лишь на ограниченное количество вопросов. Что еще более тревожно, предоставленные ссылки часто были сфабрикованы, на первый взгляд выглядя правдоподобно. Эти сфабрикованные цитаты содержали URL-адреса, правильное форматирование и даже ссылки на авторитетные научные журналы. Однако при расследовании стало ясно, что ChatGPT сам создал эти ссылки, что ставит под сомнение достоверность предоставляемой информации.
В одном из случаев ChatGPT попросили предоставить коэффициент пересчета дозы баклофена, препарата от мышечных спазмов, при переходе от спинномозговых инъекций к пероральному приему. Искусственный интеллект предоставил коэффициент пересчета вместе со ссылками на рекомендации медицинских организаций. Однако ни одна из этих организаций не установила официальный коэффициент пересчета дозы, что делает информацию ChatGPT ненадежной. Более того, ИИ допустил критическую ошибку в расчете, в результате чего рекомендуемая доза оказалась в 1000 раз ниже необходимой. Такая ошибка может привести к тяжелым симптомам отмены у пациентов, если ее будет соблюдать медицинский работник.
Опасность дезинформации
Исследование Университета Лонг-Айленда — не первое, которое поднимает вопросы о способности ChatGPT генерировать вымышленные цитаты при ответе на медицинские запросы. Предыдущие исследования также указывали на эту проблему, демонстрируя, что ИИ может создавать обманчивые подделки научных ссылок, даже приписывая их реальным авторам, ранее публиковавшимся в научных журналах.
Сара Гроссман, имевшая до исследования ограниченный опыт работы с ChatGPT, выразила удивление способностью ИИdentмгновенно синтезировать информацию. Ответы ИИ были представлены в профессиональной и изысканной форме, что потенциально могло создать у пользователей ложное чувство уверенности в точности предоставленной информации.
Ответ OpenAI
В ответ на эти выводы организация OpenAI, разработавшая ChatGPT, посоветовала пользователям не полагаться на ответы ИИ как на замену профессиональной медицинской консультации или лечения. В политике использования OpenAI четко указано, что модели ChatGPT не предназначены для предоставления медицинской информации и никогда не должны использоваться для диагностики или лечения серьезных заболеваний.
Поиск достоверной медицинской информации
Несмотря на неоспоримое удобство ChatGPT и аналогичных инструментов на основе ИИ, потребителям настоятельно рекомендуется проявлять осторожность при поиске медицинской информации в интернете. Сара Гроссман рекомендовала использовать правительственные веб-сайты, такие как страница MedlinePlus Национальных институтов здравоохранения, для получения достоверной информации. Однако она подчеркнула, что ответы в интернете не должны заменять рекомендации медицинских специалистов, поскольку каждый случай уникален и требует индивидуального подхода.
Исследование, проведенное Университетом Лонг-Айленда, служит ярким напоминанием об ограничениях ИИ, особенно когда речь идет о таких важных вопросах, как здравоохранение. Хотя ИИ может предоставлять ценную информацию, он никогда не должен заменять опыт и рекомендации квалифицированных медицинских специалистов. Последствия использования неточной или сфабрикованной информации могут быть серьезными, что подчеркивает необходимость бдительности и осмотрительности в цифровую эпоху.

