ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

В приложениях на основе ИИ будут отображаться «метки безопасности», указывающие на риски и необходимость тестирования

КАамир ШейхАамир Шейх
3 минуты чтения,
В приложениях на основе ИИ будут использоваться «метки безопасности», указывающие на риски и этапы тестирования
  • Разработчикам ИИ придётся добавлять в свои приложения метки, указывающие на риски и проблемы безопасности.
  • Этот шаг поможет пользователям понять технологию искусственного интеллекта и обеспечить конфиденциальность.
  • Для стран региона АСЕАН будет доступно руководство по анонимизации данных.

В ближайшем будущем пользователи приложений с генеративным ИИ могут обнаружить надписи, четко описывающие правила использования ИИ, связанные с ним риски и процесс тестирования. В соответствии с новыми рекомендациями, надписи станут обязательными, чтобы сделать технологию более понятной для широкой публики.

Читайте также: Европейский союз (ЕС) лидирует в регулировании ИИ.

Министр связи и информации Сингапура Джозефин Тео заявила, что новая мера направлена ​​на defiстандартов прозрачности и проверки для технологических компаний. Как сообщает издание Strait Times, 

Разработчики приложений с использованием ИИ должны быть прозрачны в отношении своих инноваций

Подобно тому, как на лекарствах или бытовой технике размещаются этикетки с информацией о безопасности, разработчики приложений генеративного ИИ должны четко информировать пользователей об использовании и разработке моделей ИИ. Г-жа Тео, которая также является министром, ответственным за инициативу «Умная нация» и кибербезопасность, сказала:

«Мы будем рекомендовать разработчикам и тем, кто внедряет приложения, проявлять прозрачность по отношению к пользователям, предоставляя информацию о том, как работают модели и приложения генеративного ИИ»

Разъясняя предстоящие правила, министр сказал, что они аналогичны тем, которые вводятся, когда пользователь открывает «упаковку безрецептурных лекарств». Там он находит лист бумаги, на котором четко указано, как следует использовать лекарство и какие возможные «побочные эффекты могут возникнуть»

Тео заявил, что «такой уровень прозрачности» необходим для систем искусственного интеллекта, построенных на основе генеративного искусственного интеллекта. Новый свод правил defiкритерии безопасности, которые должны соблюдаться до того, как модель ИИ станет доступна общественности. 

Руководство по анонимизации данных планируется выпустить в 2025 году

Генеративный искусственный интеллект — это разновидность ИИ, способная генерировать новый текст и изображения и менее предсказуемая, чем традиционный ИИ. Согласно новым правилам, создатели контента будут обязаны указывать на риски распространения лжи, враждебных комментариев и предвзятых утверждений в своих работах.

Тео заявил, что бытовая техника снабжена этикетками, на которых четко указано, что изделие прошло тестирование на безопасность использования; в противном случае покупатель не будет знать, безопасен ли прибор или нет. То же самое будет применяться и к приложениям искусственного интеллекта. Сингапурское управление по развитию информационных и медиатехнологий (IMDA) начнет консультации с отраслью по новым правилам. Однако Тео не назвал дату публикации руководящих принципов.

По словам Тео, IMDA также опубликовала руководство по вопросам конфиденциальности в технологиях, которое будет отвечать растущему спросу на данные для обучения моделей ИИ, одновременно защищая конфиденциальность пользователей.

Читайте также: В рамках круглого стола демократов Марк Кубан и Брэд Гарлингхаус обсудят регулирование криптовалют.

Заместитель генерального директора IMDA Дениз Вонг заявила: «Обеспечение безопасности данных в генеративном искусственном интеллекте представляет собой более сложную задачу для отрасли». Она высказала свою точку зрения в рамках отдельной панельной дискуссии по вопросам ИИ и конфиденциальности данных, состоявшейся во время мероприятия. В дискуссии приняли участие представители различных технологических компаний, в том числе OpenAI, создатель ChatGPT, и консалтинговая фирма Accenture. 

Защитные механизмы защиты данных должны быть внедрены на всех этапах разработки и внедрения ИИ, заявила руководитель юридического отдела по вопросам конфиденциальности OpenAI Джессика Ган Ли. Она отметила, что модели ИИ следует обучать на разнообразных наборах данных из «всех уголков мира». Ли подчеркнула, что в обучение ИИ необходимо включать данные из разных культур, языков и источников, а также искать способы ограничения обработки персональных данных.

Тео заявил, что руководство по анонимизации данных будет представлено компаниям, работающим в странах АСЕАН, в начале 2025 года. Это руководство станет результатом февральской встречи региональных чиновников, которые обсуждали способы создания безопасной глобальной цифровой экосистемы.

Ваш банк использует ваши деньги. Вам достаются лишь объедки. Посмотрите наше бесплатное видео о том, как стать собственным банком.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС