В ответ на призыв Трампа к разработке плана действий в области искусственного интеллекта, Google опубликовала предложение по политике компании. Следуя примеру OpenAI, Google просит администрацию Трампа ослабить ограничения на использование авторских прав при обучении ИИ.
Многие наблюдатели рассматривают позицию Google как еще один признак того, что технологические компании объединяют усилия для формирования федеральных правил, касающихся новых технологий искусственного интеллекта.
Ключевым моментом в рекомендациях Google является необходимость ослабления барьеров в сфере интеллектуальной собственности. Компания подчеркивает, что «исключения, касающиеся добросовестного использования и анализа текста и данных», должны быть признаны «критически важными» для продолжения исследований в области искусственного интеллекта.
Google утверждает, что исключения, касающиеся анализа текста и данных, имеют решающее значение для исследований в области искусственного интеллекта
В предложенной политике Google говорится, что обучение моделей на защищенных авторским правом, но общедоступных данных должно быть разрешено без существенных ограничений, при этом компания настаивает на том, что такая практика не наносит значительного ущерба правообладателям. Однако критики этого подхода подали иски против Google за использование защищенных авторским правом данных без компенсации. На момент написания этой статьи американские суды еще не приняли defiрешения о том, защищают ли правила добросовестного использования компании, занимающиеся искусственным интеллектом, в подобных случаях.
Наряду со смягчением ограничений в области авторского права, план Google сосредоточен на формировании экспортной политики в отношении чипов для искусственного интеллекта и связанного с ними оборудования. Компания предупреждает, что недавно введенные правила при администрации Байдена могут повлиять на конкурентоспособность США на мировых рынках ИИ.
Google указывает на «несоразмерную нагрузку» на поставщиков облачных вычислений, противопоставляя свою позицию точке зрения Microsoft. В январе Microsoft заявила, чтоdentсвоей способности соблюдать те же правила, которые, по утверждению Google, могут замедлить инновации и деловую активность.
Действующие экспортные правила, призванные ограничить поток передового оборудования для искусственного интеллекта в страны, находящиеся в неблагоприятном положении, предусматривают исключения для отдельных компаний, которым необходимы крупные кластеры высокотехнологичных чипов. Тем не менее, Google по-прежнему обеспокоен тем, что эти ограничения могут нанести ущерб долгосрочным экономическим интересам Соединенных Штатов, препятствуя прогрессу в области ИИ, особенно в эпоху растущей международной конкуренции. В программном документе предлагается сбалансированный подход, обеспечивающий национальную безопасность и позволяющий американским компаниям процветать за рубежом.
В предложении содержалась просьба к правительству сохранить присуждение грантов
Предложение также подчеркивает важность «долгосрочных, устойчивых» инвестиций в фундаментальные исследования и разработки. Ссылаясь на риски сокращения расходов, Google советует правительству сохранить жизненно важные гранты и усилить поддержку «НИОКР на ранних стадиях освоения рынка», чтобы ученые и организации могли получить доступ к сложным вычислительным ресурсам и передовым моделям. Эта позиция соответствует стремлению новой администрации пересмотреть национальные приоритеты, хотя недавние шаги по сокращению некоторых статей федерального бюджета вызвали обеспокоенность у исследовательских учреждений.
Аргумент Google в пользу более последовательного регулирования на федеральном уровне отражает растущую напряженность среди законодателей. Спустя чуть более двух месяцев 2025 года количество предложенных законопроектов, связанных с ИИ, в США достигло 781, что подчеркивает фрагментированность политической среды. В своем документе Google указывает на множество законов об ИИ на уровне штатов как на доказательство того, что нынешний подход слишком разрознен. Компания выступает за единую систему защиты конфиденциальности и безопасности, чтобы предотвратить конфликт между разработчиками и пользователями, обусловленный требованиями разных штатов.
Прошло всего 66 дней с начала 2025 года, а количество законопроектов об искусственном интеллекте, находящихся на рассмотрении в США, официально превысило общее число законопроектов за весь 2024 год. 👀
2024 год: всего 743 законопроекта об ИИ за год.
2025 год: 781 законопроект об ИИ всего за 66 дней. pic.twitter.com/xrYPVDYgR1– Адам Тирер (@AdamThierer) 7 марта 2025 г.
Что касается ответственности, Google утверждает, что разработчики ИИ не всегда могут контролировать развертывание моделей. Некоторые политики предлагали ввести ответственность за использование моделей для разработчиков, но компания возражает, что во многих случаях злоупотребление происходит из-за действий, находящихся вне прямого контроля разработчика.
Отклонённый в Калифорнии законопроект SB 1047 был одним из таких документов, определяющих обязанности создателей ИИ, включая обязательные проверки безопасности и чёткое определение случаев, когда разработчик может быть привлечён к ответственности за причинённый вред. Технологическая компания выступила против этого законопроекта, утверждая, что пользователи моделей, а не их создатели, зачастую лучше подготовлены к оценке рисков и обеспечению безопасности системы.
Примечательно, что в предложении критикуются новые требования к раскрытию информации, такие как те, которые содержатся в готовящемся Законе Европейского союза об искусственном интеллекте. Этот закон потребует от разработчиков предоставлять подробную информацию о том, как создаются и обучаются их модели, а также рекомендации относительно возможных опасностей или пробелов в производительности.
Google предупреждает, что эти требования могут непреднамеренно раскрыть коммерческие секреты или побудить противников к «взлому» систем ИИ. Аналогичные меры уже появились в некоторых частях США, например, в Калифорнии был принят закон AB 2013, который обязывает разработчиков ИИ публиковать сводку источников обучающих данных.

