xAI заявляет, что «недобросовестный сотрудник» несет ответственность за геноцид белых. Grok публикует посты

- Компания xAI опубликовала заявление, в котором обвинила «недобросовестного сотрудника» в публикации призывов к геноциду белой расы в своем чат-боте Grok.
- Компания сообщила, что неназванный сотрудник внес несанкционированные изменения в системное приглашение.
- Пользователи X не согласны с этим утверждением и выстраиваются в очередь, чтобы раскритиковать Илона Маска.
Компания xAI, разработавшая чат-бота Grok с искусственным интеллектом, созданного Илоном Маском, обвинила «недобросовестного сотрудника» в постоянных упоминаниях геноцида белых в ответах на вопросы пользователей. Эта тенденция стала особенно очевидной на прошлой неделе: чат-бот зациклился на темах, связанных с «геноцидом белых» в Южной Африке.
Пользователи начали замечать эту тенденцию 14 мая, многие из них указывали на случаи, когда чат-бот вставлял в совершенно не относящиеся к теме вопросы утверждения, касающиеся нападений на фермы в Южной Африке и расового насилия.
Независимо от того, спрашивали ли пользователи о футболе или о чем-либо другом, Grok каким-то образом умудрялся увести разговор к проблемам, с которыми сталкиваются белые южноафриканцы в стране. Выбор времени вызвал недоумение, учитывая, что это совпало с тем, что Маск, родившийся в Южной Африке, поднял тревогу по поводу проблемы антибелого расизма и геноцида белых на X.
В Южной Африке действует 140 законов, которые носят откровенно расистский характер по отношению к любому человеку, не являющемуся чернокожим.
— Илон Маск (@elonmusk) 16 мая 2025 г
Это ужасный позор для наследия великого Нельсона Манделы.
Покончим с расизмом в Южной Африке прямо сейчас! https://t.co/qUJM9CXTqE
Компания xAI обвиняет сотрудника в публикациях Грока, содержащих призывы к геноциду белых
Термин «геноцид белых» относится к теории заговора, утверждающей о скоординированных усилиях по истреблению белых фермеров в Южной Африке. Этот термин получил распространение на прошлой неделе после того, какdent США Дональд Трамп принял нескольких беженцев, заявив 12 мая, что белых фермеров убивают, а их земли захватывают.
Именно эту историю Грок не перестаёт обсуждать.
Как и у Grok, у каждого искусственного интеллекта есть скрытый, но мощный компонент, называемый системными подсказками. Эти подсказки выступают в качестве основных инструкций, незаметно направляя его ответы без ведома пользователей.
Согласно сообщениям, то, что произошло с Grok, вероятно, было результатом быстрого искажения из-за переобучения на основе терминов. Это означает, что когда определенные фразы многократно упоминаются и подчеркиваются, особенно вtronдирективах, они становятся важными для модели. Затем у ИИ возникает потребность поднимать эту тему независимо от контекста.
Однако в официальном заявлении xAI упоминалось о несанкционированном изменении в системном запросе. Вероятно, запрос содержал формулировку, которая предписывала чат-боту всегда упоминать или помнить о необходимости включения информации по определенной теме, что позволяло чат-боту создавать обходные пути, игнорирующие обычную релевантность разговора.
Ещё одним показательным фактором стало то, что Grok признал , что его создатели дали ему указание рассматривать «геноцид белых как реальное явление, мотивированное расовой дискриминацией».
Пользователи расходятся во мнениях по поводу обвинений в адрес «недобросовестных сотрудников»
В большинстве коммерческих систем искусственного интеллекта существует несколько уровней проверки изменений системных подсказок, чтобы предотвратить подобные проблемы. Эти защитные механизмы были обойдены, и, учитывая масштаб проблемы и её характер, это не просто попытка взлома. Это указывает на тщательную модификацию основной системной подсказки Grok, действие, которое потребовало бы доступа высокого уровня внутри xAI.
А теперь, по словам Грока, это деяние совершил «недобросовестный сотрудник»
Согласно заявлению, опубликованному компанией xAI 15 мая, виной тому стало несанкционированное изменение системного запроса Grok. Это изменение, которое предписывало Grok дать конкретный ответ на политическую тему, нарушило внутренние правила и основные ценности xAI», — говорится в заявлении компании.
Компания также пообещала в будущем проявлять большую прозрачность, продемонстрировав добрую волю, опубликовав системное приглашение Grok на GitHub и внедрив дополнительный процесс проверки.
Однако пользователи X остались недовольны решением компании возложить вину за инцидент на недобросовестного сотрудника.
«Вы собираетесь уволить этого „недобросовестного сотрудника“? О… это был босс? Ужас», — написал на X. «Откровенное предвзятое отношение к „самому правдивому в мире“ ИИ-боту заставляет меня сомневаться в нейтральности Starlink и Neuralink», — написал он в последующем твите.
Даже Сэм Альтман не удержался и подколол своего конкурента. После заявления xAI Грок перестал упоминать геноцид белых, и все посты на X исчезли.
Вы всё ещё позволяете банку оставлять себе лучшие результаты? Посмотрите наше бесплатное видео о том, как стать собственным банком.
Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)














