Аналитик Google Гэри Иллис предупредил, что большие языковые модели – технология, лежащая в основе чат-ботов с генеративным искусственным интеллектом, таких как ChatGPT – по-прежнему имеют пробелы в точности и нуждаются в человеческом глазе для проверки создаваемого ими контента. Комментарии появились всего через несколько дней после того, как OpenAI запустила SearchGPT , новую поисковую систему на базе искусственного интеллекта, которая будет напрямую конкурировать с Google.
Иллиес поделился комментариями на LinkedIn в ответ на вопрос, который он получил в своем почтовом ящике, но не уточнил, в чем заключался вопрос. Он сказал, что люди не должны доверять ответам ИИ, не проверив другие авторитетные источники. OpenAI стремится с помощью своего поискового инструмента разрушить доминирование Google на рынке поисковых систем.
Ответы ИИ не «обязательно фактически верны»
Иллиес, который работает в Google более десяти лет, сказал, что, хотя ответы ИИ могут быть близки к действительности, они «не обязательно фактически верны». Это связано с тем, что большие языковые модели (LLM) не застрахованы от неправильной информации, плавающей в Интернете, пояснил он.
«Основываясь на данных обучения, LLM находят наиболее подходящие слова, фразы и предложения, которые соответствуют контексту и значению подсказки», — пишет Иллиес. «Это позволяет им генерировать релевантные и последовательные ответы. Но не обязательно фактически верные».
Аналитик Google сказал, что пользователям по-прежнему придется проверять ответы ИИ на основе того, «что вы знаете о теме, которую вы задали LLM, или на основе дополнительного чтения ресурсов, которые являются авторитетными для вашего запроса».
Один из способов, с помощью которого разработчики пытались обеспечить надежность контента, создаваемого ИИ, — это практика, называемая «заземлением». Этот процесс включает в себя объединение машинной информации с человеческим фактором для защиты от ошибок. По мнению Иллиеса, заземления все еще может быть недостаточно.
«Заземление может помочь создать более фактически правильные ответы, но оно не идеально; оно не заменяет ваш мозг», — сказал он. «В Интернете полно преднамеренной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете, так зачем вам отвечать на вопросы LLM?»
Илон Маск обвинил Google в скрывании публичной информации
Традиционно доверие всегда было проблемой для поисковых систем, таких как Google и других платформ искусственного интеллекта, а также того, как они осуществляют некоторый контроль над информацией, которую передают пользователям.
Одним из таких инцидентов dent недавнее покушение на бывшего президента США dent Дональд Трамп. Илон Маск предположил dent со стрельбой в результатах поиска, что спровоцировало серьезные дебаты в социальных сетях о досягаемости больших технологий.
Ого, у Google есть запрет на поискdent Дональда Трампа!
Вмешательство в выборы? pic.twitter.com/dJzgVAAFZA
– Илон Маск (@elonmusk) 29 июля 2024 г.
к дебатам добавился поддельный аккаунт, якобы принадлежащий вице-президенту Google dent фальшивыми извинениями компании за якобы блокировку контента о Трампе.
«…Потребности людей в информации продолжают расти, поэтому мы продолжим развивать и совершенствовать Поиск. Однако, похоже, нам необходимо пересмотреть то, что мы подразумеваем под словом «точность». То, что является точным, является субъективным, и стремление к точности может помешать добиться цели», — опубликовал фейковый аккаунт на X.
«Вы можете быть уверены, что наша команда усердно работает над тем, чтобы наше уважение к точности неtracнас и мешало нашему видению будущего», — добавили в компании.
В комментариях сообщества на X немедленно пометили этот твит, заявив, что этот человек выдавал себя за вице-президента Google. Это пример того, как информация может легко быть искажена, а модели ИИ могут быть не в состоянии отличить то, что верно, а что нет, без проверки человеком.
Криптополитическая академия: скоро появится - новый способ заработать пассивный доход с DeFi в 2025 году. Узнайте больше