Аналитик Google предупреждает, что ответы ИИ «не идеальны и не могут заменить ваш мозг»

- Аналитик Google Гэри Иллиес предупредил, что в программах обучения линейному менеджменту по-прежнему есть пробелы в точности.
- Для проверки создаваемого ими контента необходим человеческий глаз.
- Он сказал, что людям не следует доверять ответам ИИ, не проверив их в авторитетных источниках.
Аналитик Google Гэри Иллиес предупредил, что большие языковые модели — технология, лежащая в основе генеративных чат-ботов на основе ИИ, таких как ChatGPT, — по-прежнему имеют пробелы в точности и требуют проверки человеком для достоверности создаваемого ими контента. Эти комментарии прозвучали всего через несколько дней после того, как OpenAI запустила SearchGPT, новую поисковую систему на основе ИИ, которая будет напрямую конкурировать с Google.
Иллиес поделился комментариями в LinkedIn в ответ на вопрос, полученный им по электронной почте, но не уточнил, в чём заключался вопрос. Он сказал, что людям не следует доверять ответам ИИ, не проверив их в других авторитетных источниках. OpenAI стремится к тому, чтобы её поисковый инструмент подорвал доминирование Google на рынке поисковых систем.
Ответы ИИ не обязательно являются фактически верными
Иллиес, проработавший в Google более десяти лет, сказал, что хотя ответы ИИ могут быть близки к истине, они не обязательно являются «фактически правильными». Это связано с тем, что большие языковые модели (LLM) не застрахованы от использования неверной информации, распространяющейся в интернете, пояснил он.
«На основе полученных в ходе обучения данных специалисты по лингвистике подбирают наиболее подходящие слова, фразы и предложения, соответствующие контексту и смыслу вопроса», — написал Иллиес. «Это позволяет им генерировать релевантные и связные ответы. Но не обязательно фактически правильные»
Аналитик Google заявил, что пользователям по-прежнему потребуется проверять ответы ИИ, основываясь на том, «что вы знаете по теме, по которой задали вопрос в рамках магистерской программы, или на дополнительной информации из авторитетных источников по вашему запросу»
Один из способов, которым разработчики пытаются обеспечить надежность контента, генерируемого ИИ, — это практика, называемая «привязка». Этот процесс включает в себя добавление к информации, созданной машиной, элементов, созданных человеком, для предотвращения ошибок. По словам Иллиеса, привязки может быть недостаточно.
«Обоснование может помочь в создании более фактически правильных ответов, но оно не идеально; оно не заменяет ваш мозг», — сказал он. «Интернет полон преднамеренной и непреднамеренной дезинформации, и вы не стали бы верить всему, что читаете в сети, так почему же вы должны верить ответам на вопросы по программе LLM?»
Илон Маск обвиняет Google в том, что компания скрывает общедоступную информацию
Традиционно вопрос доверия всегда был актуален в отношении поисковых систем, таких как Google , и других платформ, использующих искусственный интеллект, а также в том, как они контролируют информацию, предоставляемую пользователям.
Один из такихdentdentdent dentdentdentdent dentdent Трампа. Илон Маск предположил , что Google запретилdent в результатах поиска, что вызвало масштабную дискуссию в социальных сетях о влиянии крупных технологических компаний.
Ух ты, Google запретил поиск поdent президента Дональда Трампа!
Вмешательство в выборы? pic.twitter.com/dJzgVAAFZA
— Илон Маск (@elonmusk) 29 июля 2024 г.
В ходе бурной реакции фейковый аккаунт, якобы принадлежащий вице-президенту Googledent Мостарак, подключился к дискуссии, опубликовав фальшивые извинения компании за якобы блокировку контента, связанного с Трампом.
«…Информационные потребности людей продолжают расти, поэтому мы будем и дальше развивать и улучшать поиск. Однако, похоже, нам нужно пересмотреть наше понимание точности. Точность — понятие субъективное, и стремление к точности может мешать выполнению задач», — написал фейковый аккаунт на X.
«Можете быть уверены, что наша команда усердно работает над тем, чтобы наше стремление к точности не сталоtracна пути к реализации нашего видения будущего», — добавлено в заявлении.
В комментариях сообщества на X немедленно отметили твит, указав, что автор выдает себя за вице-президента Google. Это пример того, как легко можно исказить информацию, и модели ИИ могут быть не в состоянии отличить правду от лжи без проверки человеком.
Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














