Национальный институт стандартов и технологий США (NIST) проявил инициативу в решении проблем, связанных с искусственным интеллектом (ИИ), выпустив четыре проекта публикаций, призванных обеспечить безопасность, надежность и отказоустойчивость систем ИИ. В течение этого периода, который заканчивается 2 июня 2024 года, проекты открыты для общественного обсуждения. Это отражает реакцию NIST на указ президента США от октября 2023 года об ИИ, который подчеркивает необходимость смягчения последствий технологий ИИ, одновременно способствуя ответственным инновациям и поддержанию технологического лидерства США.
Снижение рисков, связанных с генеративным искусственным интеллектом
NIST, , основное внимание уделяется угрозам безопасности, возникающим в связи с технологиями генеративного искусственного интеллекта. Профиль AI RMF AI Generative AI содержит 12 рисков, начиная от высокой доступности конфиденциальной информации и заканчивая распространением разжигания ненависти и вредоносного контента. Устранение этих рисков является ключевым направлением работы NIST, который выявил dent 400 потенциальных мер по управлению рисками, которые могут быть приняты организациями. Данная структура предоставляет разработчикам возможность следовать ей и согласовывать свои цели и приоритеты.
Минимизация рисков, связанных с обучающими данными
Еще один ключевой аспект, представленный в проектах, — это обеспечение безопасности данных, используемых при обучении систем искусственного интеллекта. Проект публикации «Практики безопасной разработки программного обеспечения для генеративного ИИ и базовых моделей двойного назначения», являющийся частью существующих рекомендаций NIST, создан для того, чтобы гарантировать целостность систем ИИ в условиях опасений по поводу вредоносных обучающих данных. NIST предлагает несколько способов обеспечения безопасности компьютерного кода и предоставляет решения проблем с данными, включая сбор и использование данных. Это повысит безопасность систем ИИ от возможных угроз.
Содействие прозрачности в контенте, созданном с помощью ИИ
В ответ на быстро растущее число синтезированных цифровых материалов, NIST разрабатывает меры по снижению рисков, связанных с ними, в своем предстоящем документе «Снижение рисков, связанных с синтетическими материалами». С помощью цифровых водяных знаков и записи метаданных NIST пытается обеспечить возможность tracиdentизмененных медиафайлов, что, как ожидается, предотвратит некоторые негативные последствия, включая распространение интимных изображений, полученных без согласия, и материалов, содержащих сцены сексуального насилия над детьми.
Содействие глобальному взаимодействию в области стандартов искусственного интеллекта
Признавая, что международное сотрудничество является одним из ключевых факторов в разработке стандартов, связанных с ИИ, NIST подготовил проект Глобального плана взаимодействия по ИИ . Цель этого плана — поощрение сотрудничества и координации между международными союзниками, организациями, разрабатывающими стандарты, и частным сектором для ускорения разработки технологических стандартов для ИИ. Уделяя первостепенное внимание осведомленности об источнике контента и методам тестирования, NIST стремится создать tron режим, обеспечивающий безопасную и этически обоснованную работу технологий ИИ во всем мире.
Инициирование проекта NIST GenAI
Министерство торговли США объявило о новых мерах, связанных с указом президента об искусственном интеллекте, таких как новая программа под названием NIST GenAI Challenge. Она будет оценивать и измерять технологии генеративного ИИ. Узнайте больше о конкурсе и других мерах: https://t.co/C2roy7KYfs pic.twitter.com/O27BV84sGB
— Национальный институт стандартов и технологий (@NIST) 1 мая 2024 г
Кроме того, институт разработал NIST GenAI — программный инструмент, который оценивает и количественно определяет возможности инструментов генеративного искусственного интеллекта. NIST GenAI станет инструментом, с помощью которого Институт безопасности ИИ NIST сможет предлагать задачи для решения сложных проблем и проводить пилотные оценки, чтобы помочь американскому Институту безопасности ИИ при NIST различать входные данные алгоритма ИИ и контент, созданный человеком. По замыслу, главная цель этой инициативы — повысить достоверность информации и предоставить рекомендации по этическому аспекту создания контента в эпоху ИИ.
Объявление NIST о публикации этих проектов отчетов и запуск NIST GenAI знаменуют собой активную и ориентированную на развитие инициативу по решению проблем, связанных с ИИ, которые бросают вызов нашему обществу, и одновременно обеспечивают безопасность инноваций в обществе. Благодаря запросам NIST к ключевым заинтересованным сторонам, таким как компании, которые разработали или внедрили технологии ИИ, платформа может влиять на определение руководящих принципов безопасности и стандартов ИИ. Активное участие в этом процессе позволяет заинтересованным сторонам способствовать установлению наиболее предпочтительных практик и отраслевого стандартного подхода, что в конечном итоге приводит к безопасному уровню и надежной экосистеме ИИ.

