Google поделился бумагой по безопасности на своей флагманской модели искусственного интеллекта, Gemini 2.5 Pro. Эксперты говорят, что это оставляет ключевые риски необъяснимыми.
Компания опубликовала техническую газету в четверг, через несколько недель после того, как она выпустила Gemini 2.5 Pro для клиентов. В документе перечислены внутренние тесты, которые Google прошел на модели, но предлагает мало фактов о том, как система ведет себя в невыполнении или неправильном использовании. Исследователи, которые рассмотрели газету, сообщили TechCrunch, что недостающие детали затрудняют судить, действительно ли Gemini 2.5 Pro безопасным для широкого использования.
Технические отчеты являются одним из основных способов, которыми общественность узнает, что продвинутые системы ИИ могут и не могут сделать. Тщательный отчет часто показывает, где модель терпит неудачу и где она может быть неправильно использована. Многие исследователи ИИ рассматривают эти статьи как честные усилия, чтобы поддержать требования компании о безопасности.
Google обрабатывает безопасность отчетности по -разному.
Google выпускает отчет только после того, как модель больше не помечена «экспериментальной», и он перемещает определенные результаты «опасных возможностей» в отдельный аудит, который не опубликован сразу. В результате публичная статья не охватывает каждую угрозу, на которую протестировал Google.
Несколько аналитиков сообщили, что новый документ Gemini 2.5 Pro является резким случаем ограниченного раскрытия. Они также заметили, что отчет никогда не относится к структуре безопасности Google по границе, или FSF, политике, которую компания объявила в прошлом году, чтобы определить будущие полномочия искусственного интеллекта, которые могут привести к «серьезным вредам».
«Этот отчет очень редкий, содержит минимальную информацию и прибыл через несколько недель после того, как модель стала публичной», - сказал Питер Уилдфорд, соучредитель Института политики и стратегии ИИ. «Невозможно подтвердить, выполняет ли Google свои собственные обещания и, следовательно, невозможно судить о безопасности и безопасности своих моделей».
Томас Вудсайд, соучредитель проекта Secure AI, сказал, что он был рад, что любая газета появилась вообще, но он сомневался в плане Google по выпуску устойчивых последствий. Он отметил, что в последний раз, когда фирма разделяла результаты испытаний на опасную способность, был июнь 2024 года, и эта статья охватывала модель, объявленную в феврале того же года.
Уверенность проскользнула дальше, когда наблюдатели не увидели газеты по безопасности для Flash Gemini 2.5, более тонкой и более высокой модели Google, раскрытой на прошлой неделе. Представитель компании сказал, что флэш -бумага «скоро появится».
«Я надеюсь, что это настоящее обещание начать давать более частые обновления», - сказал Вудсайд. «Эти обновления должны включать результаты для моделей, которые еще не достигли общественности, потому что эти модели могут также представлять серьезные риски».
Google теперь не справляется с прозрачностью
для безопасности для своих новых моделей Llama 4 выполняет всего несколько страниц, в то время как Openai решила вообще не публиковать какие -либо отчет для своей серии GPT -4.1.
Нехватка деталей происходит в напряженное время. Два года назад Google сообщил правительству США, что он опубликует документы по безопасности для каждой «значимой» модели ИИ в рамках ». Компания сделала аналогичные обещания чиновникам в других странах, заявив, что она предложит «общественную прозрачность» о своих продуктах искусственного интеллекта.
Кевин Бэнкстон, старший советник по управлению искусственным интеллектом в Центре демократии и технологий, назвал релизы от ведущих лабораторий «гонкой внизу» в безопасности.
«В сочетании с отчетами о том, что конкурирующие лаборатории, такие как Openai, сократили время для проведения безопасности до выхода от месяцев до дней, эта скудная документация для главной модели Google рассказывает о тревожной истории о гонке внизу о безопасности и прозрачности ИИ, поскольку компании спешат свои модели на рынок», - добавил он.
Google говорит, что большая часть его работы по безопасности происходит за закрытыми дверями. Компания заявляет, что каждая модель проходит строгие тесты, в том числе «состязательная красная команда», до любого публичного запуска.
Криптополитическая академия: Хотите вырастить свои деньги в 2025 году? Узнайте, как сделать это с DeFi в нашем предстоящем веб -классе. Сохраните свое место