Пентагон оказывает реальное давление на крупные компании, занимающиеся искусственным интеллектом, чтобы те предоставили американским военным доступ к их инструментам внутри засекреченных систем.
Чиновники просят не просто базовый доступ. Они хотят, чтобы эти модели ИИ работали без всех тех обычных ограничений, которые компании устанавливают для пользователей.
В ходе встречи в Белом доме во вторник Эмиль Майкл, главный технический директор Пентагона, заявил лидерам технологической отрасли, что военные хотят, чтобы эти модели искусственного интеллекта работали как в секретных, так и в несекретных сетях.
По сообщениям источника, близкого к переговорам, правительство теперь намерено внедрить так называемые «передовые возможности искусственного интеллекта» на всех уровнях военного применения.
Пентагон требует беспрепятственного доступа к защищенным сетям
Этот шаг является частью более масштабных дискуссий о том, как искусственный интеллект будет использоваться в будущих боевых действиях. Войны уже формируются с помощью роев дронов, роботов и непрекращающихся кибератак. Пентагон не хочет отставать, пока технологический мир устанавливает границы дозволенного.
В настоящее время большинство компаний, работающих с военными, предлагают упрощенные версии своих моделей. Они работают только на открытых, несекретных системах, используемых для административной работы. Исключением является компания Anthropic
Чат-бот Claude можно использовать в некоторых секретных ситуациях, но только через сторонние платформы. Даже в этом случае государственные пользователи должны соблюдать правила Anthropic.
Пентагон хочет получить прямой доступ к секретным сетям, обладающим высокой степенью секретности. Эти системы используются, например, для планирования миссий или определения местоположения целей. Пока неясно, когда и как чат-боты, такие как Claude или ChatGPT, будут установлены в этих сетях, но цель именно в этом.
Чиновники считают, что ИИ может помочь обрабатывать огромные массивы данных и быстро предоставлять их лицам, принимающим решения. Но если эти инструменты будут генерировать ложную информацию, а это происходит, люди могут погибнуть. Исследователи предупреждали именно об этом.
компания OpenAI заключила соглашение с Пентагоном. Теперь ChatGPT будет использоваться в несекретной сети genai.mil. Эта сеть уже охватывает более 3 миллионов сотрудников Министерства обороны.
В рамках сделки OpenAI сняла множество обычных ограничений на использование своих сервисов. Некоторые ограничения всё ещё действуют, но Пентагон получил большую часть того, чего хотел.
Представитель компании заявил, что любое расширение сферы применения до использования в секретных целях потребует заключения нового соглашения. Google и xAI Илона Маска уже заключали подобные сделки в прошлом.
Исследователи в области искусственного интеллекта уходят в отставку и указывают на риски
Переговоры с Anthropic оказались непростыми. Руководители компании заявили Пентагону, что не хотят, чтобы их технологии использовались дляmatic наведения на цель или слежки за людьми внутри США.
Несмотря на то, что Клод уже используется в некоторых миссиях по обеспечению национальной безопасности, руководство компании выступает против. В своем заявлении представитель компании сказал:
«Компания Anthropic стремится защитить лидирующие позиции Америки в области искусственного интеллекта и помочь правительству США противостоять внешним угрозам, предоставляя нашим военнослужащим доступ к самым передовым возможностям в сфере ИИ»
Они сказали, что название Claude уже используется, и компания по-прежнему тесно сотрудничает с тем, что сейчас называется Министерством обороны.dent Дональд Трамп недавно приказал Министерству обороны принять это название, но Конгресс еще должен его утвердить.
Пока всё это происходит, группа исследователей из этих компаний увольняется. Один из ведущих исследователей в области защиты данных из Anthropic заявил, уходя: «Мир в опасности». Исследователь из OpenAI также покинул компанию, заявив, что технология «потенциально позволяет манипулировать пользователями способами, которые мы не можем понять, не говоря уже о предотвращении»
Некоторые из увольняющихся не делают это молча. Они предупреждают, что события развиваются слишком быстро, а риски игнорируются. Зои Хитциг, проработавшая в OpenAI два года, уволилась на этой неделе.
В своем эссе она заявила, что у нее есть «серьезные сомнения» по поводу того, как компания планирует внедрять рекламу. Она также сказала, что ChatGPT хранит личные данные пользователей, такие как «страхи перед медицинскими процедурами, проблемы в отношениях, представления о Боге и загробной жизни»
Она сказала, что это огромная проблема, потому что люди доверяют чат-боту и не думают, что у него есть какие-либо скрытые мотивы.
Примерно в то же время технологический сайт Platformer сообщил, что OpenAI упразднила свою группу по согласованию целей. Эта группа была создана в 2024 году, чтобы убедиться, что цель компании — создание ИИ, который приносит пользу всему человечеству, — действительно имеет смысл.

