В рамках важного шага, направленного на стимулирование инноваций в секторе искусственного интеллекта (ИИ), правительство пересмотрело свои рекомендации относительно выпуска GenAI — и основанных на ИИ инструментов и функций. Этот шаг, приветствуемый участниками отрасли, является облегчением, поскольку компаниям больше не потребуется получать явное согласие правительства перед запуском своей продукции.
Представители отрасли приветствуют изменения
В обновленном документе, опубликованном 15 марта, в частности, отменено требование к компаниям соблюдать требования в строго 15-дневный срок. Это изменение было одобрено экспертами отрасли, которые выражали обеспокоенность по поводу потенциального замедления темпов инноваций, вызванного первоначальными правилами.
Рохит Кумар, партнер-основатель консалтинговой фирмы The Quantum Hub, специализирующейся на государственной политике, высоко оценил оперативность правительства в реагировании на отзывы отрасли. Он подчеркнул, что ранее выданное рекомендательное письмо могло бы значительно замедлить вывод продукции на рынок и задушить инновационную экосистему. Кумар также отметил, что отмена необходимости представлять отчет о принятых мерах свидетельствует о том, что рекомендация носила не просто рекомендательный характер, а имела вес директивы.
Ключевые изменения и преемственность в требованиях
В соответствии с пересмотренными рекомендациями, платформы и посредники, оснащенные возможностями искусственного интеллекта и GenAI, такие как Google и OpenAI , по-прежнему обязаны получать одобрение правительства, прежде чем предлагать услуги, позволяющие создавать дипфейки. Кроме того, они должны продолжать помечать себя как «находящиеся на стадии тестирования» и получать явное согласие пользователей, информируя их о потенциальных ошибках, присущих данной технологии.
Директива распространяется на все платформы и посредников, использующих большие языковые модели (LLM) и базовые модели. Кроме того, сервисам предписано не создавать контент, который подрывает целостность избирательного процесса или нарушает индийское законодательство, что подчеркивает обеспокоенность по поводу дезинформации и дипфейков, влияющих на результаты выборов.
Акцент на процессуальных гарантиях
Признавая позитивный прогресс, достигнутый благодаря пересмотру рекомендаций, некоторые руководители подчеркивают важность процессуальных гарантий при разработке политики. Они выступают за консультативный подход, чтобы предотвратить поспешные реакции наdentи обеспечить разработку хорошо продуманных нормативных актов.
Руководители, говорившие на условиях анонимности, подчеркнули необходимость проявления осторожности со стороны посредников в периоды высокого риска, такие как выборы. Они поддержали инициативу правительства, призывающего посредников проявлять бдительность перед выпуском непроверенных моделей и соответствующей маркировкой результатов.
Первоначальное предупреждение было вызвано различными противоречиями, в том числе критикой платформы искусственного интеллекта Google Gemini за ответы, сгенерированные о премьер-министре Моди. Также наблюдались случаи «галлюцинаций» моделей GenAI, примером которых является бета-версия платформы GenAI Krutrim от Ola, что послужило поводом для вмешательства регулирующих органов.

