Компания Google опубликовала документ о безопасности своей флагманской модели искусственного интеллекта Gemini 2.5 Pro. Эксперты говорят, что в нем не объясняются основные риски.
Компания опубликовала технический документ в четверг, спустя несколько недель после выпуска Gemini 2.5 Pro для клиентов. В документе перечислены внутренние тесты, проведенные Google на этой модели, но мало информации о том, как система ведет себя при перегрузке или неправильном использовании. Исследователи, ознакомившиеся с документом, сообщили TechCrunch, что отсутствие подробностей затрудняет оценку того, действительно ли Gemini 2.5 Pro безопасен для широкого использования.
Технические отчеты — один из главных способов, с помощью которого общественность узнает о возможностях и ограничениях передовых систем искусственного интеллекта. Подробный отчет часто показывает, где модель дает сбой и где ее можно использовать не по назначению. Многие исследователи в области ИИ рассматривают эти работы как честные попытки подтвердить заявления компании о безопасности.
Google обрабатывает сообщения о нарушениях безопасности по-другому.
Google публикует отчет только после того, как модель перестает быть помеченной как «экспериментальная», а результаты проверки на наличие «опасных возможностей» переносятся в отдельный аудит, который не публикуется сразу. В результате публичный документ не охватывает все угрозы, которые Google проверял.
Несколько аналитиков заявили, что новый документ Gemini 2.5 Pro является ярким примером ограниченного раскрытия информации. Они также отметили, что в отчете нигде не упоминается система Google Frontier Safety Framework (FSF), политика, объявленная компанией в прошлом году для выявления будущих возможностей ИИ, которые могут причинить «серьезный вред»
«Этот отчет очень скуден, содержит минимум информации и появился спустя несколько недель после публикации модели», — сказал Питер Уайлдфорд, соучредитель Института политики и стратегии в области ИИ. «Невозможно подтвердить, выполняет ли Google свои собственные обещания, и, следовательно, невозможно оценить безопасность и надежность его моделей»
Томас Вудсайд, соучредитель проекта Secure AI Project, заявил, что рад появлению хоть какой-то статьи, но сомневается в планах Google регулярно публиковать последующие результаты. Он отметил, что в последний раз компания делилась результатами тестов на уязвимость в июне 2024 года, и та статья касалась модели, анонсированной в феврале того же года.
Уверенность еще больше пошатнулась, когда наблюдатели не увидели документов, подтверждающих безопасность Gemini 2.5 Flash, более тонкой и быстрой модели, представленной Google на прошлой неделе. Представитель компании заявил, что документы по Flash «скоро появятся»
«Я надеюсь, что это настоящее обещание начать предоставлять более частые обновления», — сказал Вудсайд. «Эти обновления должны включать результаты для моделей, которые еще не стали достоянием общественности, поскольку эти модели также могут представлять серьезные риски»
Google теперь не обеспечивает достаточную прозрачность
В уведомлении о безопасности новых моделей Llama 4 от Meta всего несколько страниц, в то время как OpenAI предпочла вообще не публиковать никаких отчетов по своей серии GPT-4.1.
Недостаток подробностей возникает в напряженный момент. Два года назад Google заявила правительству США, что опубликует документы по безопасности для каждой «значимой» модели ИИ, подпадающей под действие закона. Компания дала аналогичные обещания чиновникам в других странах, заявив, что обеспечит «публичную прозрачность» в отношении своих продуктов на основе ИИ.
Кевин Бэнкстон, старший советник по вопросам управления ИИ в Центре демократии и технологий, назвал публикации ведущих лабораторий «гонкой на дно» в вопросах безопасности.
«В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как OpenAI, сократили время тестирования безопасности перед выпуском с месяцев до дней, эта скудная документация по лучшей модели Google рассказывает тревожную историю о гонке на выживание в области безопасности и прозрачности ИИ, поскольку компании спешат вывести свои модели на рынок», — добавил он.
Google заявляет, что большая часть работы по обеспечению безопасности ведется за закрытыми дверями. Компания утверждает, что каждая модель проходит строгие испытания, включая «тестирование на уязвимость», прежде чем будет запущена в публичный доступ.

