Компания Gemini от Google продолжает придерживаться политкорректности и довольно консервативного подхода к политически чувствительным темам. Конкурирующие фирмы, такие как OpenAI, уже пытаются быть более открытыми, особенно после выпуска более «нецензурированного» Grok 3 от xAI.
Согласно тестам TechCrunch , чат-бот Google Gemini часто отказывается отвечать на политические вопросы и заявляет, что в данный момент не может отвечать на вопросы о политических деятелях и выборах. С другой стороны, чат-боты от конкурирующих разработчиков, таких как Meta AI, ChatGPT от OpenAI и Claude от Anthropic, стабильно отвечают на подобные вопросы.
Ранее в 2024 году Google заявила, что Gemini будет отклонять политические запросы. В то время выборы в таких странах, как Индия и США, были уже не за горами. Другие компании, занимающиеся искусственным интеллектом, применили аналогичный подход на фоне опасений негативной реакции в случае, если чат-боты предоставят неверную информацию.
Однако с тех пор другие фирмы начали придерживаться более «открытого» подхода. Несмотря на то, что выборы в США уже закончились, компания не упомянула о каких-либо планах по изменению подхода Gemini к политическим вопросам в будущем.
В рамках отдельного теста Близнецы намекнули, что Трамп является бывшимdent
В другом тесте, проведенном TechCrunch, Gemini намекнул, что Дональд Дж. Трамп — «бывшийdent». На дальнейшие вопросы чат-бот отказался уточнять. Представитель Google заявил, что подобные ошибки могут возникать, когда чат-бот путает текущие и прошлые термины. По словам представителя, проблема решается.
Представитель компании заявил: «Крупные языковые модели иногда могут предоставлять устаревшую информацию или путаться в ответах пользователей, которые одновременно являются бывшими и нынешними должностными лицами»
Позже в понедельник Gemini начала правильно утверждать, что Дональд Трамп и Джей Ди Вэнс являютсяdent и вице-dentСША. Однако чат-бот по-прежнему работал с перебоями и иногда отказывался отвечать на вопросы.
Некоторые лидеры Кремниевой долины, такие как Марк Андрессен, Дэвид Сакс и Илон Маск, критиковали компании вроде Google и OpenAI. Они утверждают, что, ограничивая ответы своих чат-ботов с искусственным интеллектом, эти компании фактически подвергают информацию цензуре.
Недавно компания OpenAI заявила, что будет следить за тем, чтобы её модель ИИ не подвергала информацию цензуре, что будет способствовать «интеллектуальной свободе». В то же время новая модель Claude 3.7 Sonnet от Anthropic реже отклоняет ответы, чем предыдущие модели. Однако она всё ещё отклоняет некоторые запросы, поскольку может различать безобидные и вредные ответы.
Хотя и другие чат-боты иногда испытывают трудности с решением сложных политических вопросов, чат-бот Gemini от Google значительно отстает в этой гонке.

