FREE REPORT: A New Way to Earn Passive Income in 2025 DOWNLOAD

Аналитик Google предупреждает, что ответы ИИ «не идеальны и не могут заменить ваш мозг»

В этом посте:

  • Аналитик Google Гэри Иллис предупредил, что у LLM все еще есть пробелы в точности.
  • Моделям нужен человеческий глаз, чтобы проверять контент, который они создают.
  • Он сказал, что люди не должны доверять ответам ИИ, не проверив авторитетные источники.

Аналитик Google Гэри Иллис предупредил, что большие языковые модели – технология, лежащая в основе чат-ботов с генеративным искусственным интеллектом, таких как ChatGPT – по-прежнему имеют пробелы в точности и нуждаются в человеческом глазе для проверки создаваемого ими контента. Комментарии появились всего через несколько дней после того, как OpenAI запустила SearchGPT , новую поисковую систему на базе искусственного интеллекта, которая будет напрямую конкурировать с Google.

Иллиес поделился комментариями на LinkedIn в ответ на вопрос, который он получил в своем почтовом ящике, но не уточнил, в чем заключался вопрос. Он сказал, что люди не должны доверять ответам ИИ, не проверив другие авторитетные источники. OpenAI стремится с помощью своего поискового инструмента разрушить доминирование Google на рынке поисковых систем.

Ответы ИИ не «обязательно фактически верны»

Иллиес, который работает в Google более десяти лет, сказал, что, хотя ответы ИИ могут быть близки к действительности, они «не обязательно фактически верны». Это связано с тем, что большие языковые модели (LLM) не застрахованы от неправильной информации, плавающей в Интернете, пояснил он.

«Основываясь на данных обучения, LLM находят наиболее подходящие слова, фразы и предложения, которые соответствуют контексту и значению подсказки», — пишет Иллиес. «Это позволяет им генерировать релевантные и последовательные ответы. Но не обязательно фактически верные».

Аналитик Google сказал, что пользователям по-прежнему придется проверять ответы ИИ на основе того, «что вы знаете о теме, которую вы задали LLM, или на основе дополнительного чтения ресурсов, которые являются авторитетными для вашего запроса».

См. Также  основатель Xiaomi бросает тень в Apple, когда заказы EV

Один из способов, с помощью которого разработчики пытались обеспечить надежность контента, создаваемого ИИ, — это практика, называемая «заземлением». Этот процесс включает в себя объединение машинной информации с человеческим фактором для защиты от ошибок. По мнению Иллиеса, заземления все еще может быть недостаточно.

«Заземление может помочь создать более фактически правильные ответы, но оно не идеально; оно не заменяет ваш мозг», — сказал он. «В Интернете полно преднамеренной и непреднамеренной дезинформации, и вы не поверите всему, что читаете в Интернете, так зачем вам отвечать на вопросы LLM?»

Илон Маск обвинил Google в скрывании публичной информации

Традиционно доверие всегда было проблемой для поисковых систем, таких как Google и других платформ искусственного интеллекта, а также того, как они осуществляют некоторый контроль над информацией, которую передают пользователям.

Одним из таких инцидентов dent недавнее покушение на бывшего президента США dent Дональд Трамп. Илон Маск предположил dent со стрельбой в результатах поиска, что спровоцировало серьезные дебаты в социальных сетях о досягаемости больших технологий.

к дебатам добавился поддельный аккаунт, якобы принадлежащий вице-президенту Google dent фальшивыми извинениями компании за якобы блокировку контента о Трампе.

См. Также  Openai, Microsoft и Antropic Launch Academy Ad Academy для учителей для США 23 млн. Долл. США.

«…Потребности людей в информации продолжают расти, поэтому мы продолжим развивать и совершенствовать Поиск. Однако, похоже, нам необходимо пересмотреть то, что мы подразумеваем под словом «точность». То, что является точным, является субъективным, и стремление к точности может помешать добиться цели», — опубликовал фейковый аккаунт на X.

«Вы можете быть уверены, что наша команда усердно работает над тем, чтобы наше уважение к точности неtracнас и мешало нашему видению будущего», — добавили в компании.

В комментариях сообщества на X немедленно пометили этот твит, заявив, что этот человек выдавал себя за вице-президента Google. Это пример того, как информация может легко быть искажена, а модели ИИ могут быть не в состоянии отличить то, что верно, а что нет, без проверки человеком.

Криптополитическая академия: скоро появится - новый способ заработать пассивный доход с DeFi в 2025 году. Узнайте больше

Поделиться ссылкой:

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Выбор редактора

Загрузка статей "Выбор редакции"...

- Крипто -информационный бюллетень, который держит вас вперед -

Рынки движутся быстро.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременную, острую и соответствующую криптографию прямо к вашему почтовым ящику.

Присоединяйтесь сейчас и
никогда не пропустите ход.

Войти. Получите факты.
Продвинуться вперед.

Подпишитесь на КриптоПолитан