Your bank is using your money. You’re getting the scraps.WATCH FREE

Британский институт безопасности запускает Inspect — инструмент оценки безопасности на основе искусственного интеллекта

В этом посте:

  • Инструмент Inspect от британского Института безопасности изменил подход к тестированию безопасности ИИ, обойдя проблему непрозрачности, возникающую в моделях ИИ.
  •  Открытая платформа Inspect предполагает международное сотрудничество, что устанавливает высокие стандарты для прозрачного использования ИИ.
  •  Трансатлантическое партнерство знаменует собой смену парадигмы, при которой государственные структуры США и Великобритании находятся на передовой линии управления ИИ, тестируя модели и принимая во внимание риски. 

Прогресс Соединенного Королевства (Великобритании) в обеспечении этических норм и мер безопасности в отношении искусственного интеллекта (ИИ) ускорился с появлением набора инструментов Inspect, разработанного Британским институтом безопасности. Inspect, предназначенный для гарантирования безопасности ИИ, предлагает полный алгоритм оценки моделей ИИ , что знаменует собой важный этап в стремлении к прозрачному и ответственному развитию ИИ. 

Революционный подход к тестированию безопасности ИИ

Главная особенность Inspect заключается в его способности определять полномочия сложных алгоритмов искусственного интеллекта. Из-за своей непрозрачности, которая может подразумевать неразглашение критически важных аспектов, таких как базовая инфраструктура и обучающие данные, эти модели представляют собой серьезную проблему. Inspection преодолевает эту проблему благодаря своей очень гибкой архитектуре, которая позволяет легко дополнять уже существующие технологии и методы тестирования. 

Он включает три основных модуля: наборы данных, решатели и оценщики. Модули организованы таким образом, чтобы обеспечитьmatic процесс тестирования. Наборы данных являются ресурсом для оценочного тестирования с использованием выборочных совокупностей; затем оценщики оценивают результаты выполнения решателей, а полученные оценки компилируются в агрегированные метрики. Ключевым моментом является то, что структуру Inspect можно расширить за счет интеграции внешних пакетов Python, что повышает эффективность и полезность Inspect. 

См. также:  Abiotic Factor представила новое обновление Crush Depth в Steam после раннего доступа в мае.

Новаторское сотрудничество и глобальное влияние

Запуск безопасности ИИ, преодолевая географические и организационные разногласия. Иэн Хогарт, председатель Института безопасности, заявляет, что коллективный подход имеет ключевое значение, и Inspect должен стать эталоном для стандартизированных, высококачественных оценок среди всех заинтересованных сторон, включая различные секторы и заинтересованные стороны. 

Дебора Радж, специалист по этике ИИ и научный сотрудник Mozilla, считает, что разработка Inspect является одним из примеров преобразующего эффекта государственных инвестиций в инструменты оценки ответственности в сфере ИИ с открытым исходным кодом. Выпуск Inspect вызвал отклик не только в академических кругах и промышленности, но и за пределами индустрии: Клеман Деланг, генеральный директор стартапа Hugging Face, занимающегося разработкой ИИ, призывает включить его в существующие библиотеки моделей и создать общедоступную таблицу лидеров, где будут отображаться результаты оценки.

Трансатлантический сдвиг парадигмы в управлении ИИ

Презентация Inspect призвана стать частью широкого признания необходимости международного управления и подотчетности в сфере ИИ. США и Великобритания работают вместе, опираясь на соглашения Саммита по безопасности ИИ в Блетчли-Парке в качестве примера, над совместной разработкой протоколов тестирования для передовых моделей ИИ. В качестве первого шага Соединенные Штаты планируют создать институт безопасности ИИ, создание которого соответствует общей целиdentи устранения рисков, связанных с ИИ и генеративным ИИ. 

См. также  прогноз генерального директора Synopsys о том, что дефицит микросхем сохранится до 2027 года.

Приложение Inspect, представляющее собой ИИ нового поколения, знаменует собой важную веху в развитии искусственного интеллекта, центральной темой которого являются прозрачность, подотчетность и ответственное управление. Обеспокоенность по поводу ответственного использования искусственного интеллекта как со стороны государств, так и организаций вдохновляет на такие инициативы, как Inspect, которые предсказывают светлое будущее, когда ИИ станет все более приемлемым для людей благодаряtronвниманию к развитию доверия, честности и человекоцентричных ценностей.

Вы всё ещё позволяете банку оставлять себе лучшие результаты? Посмотрите наше бесплатное видео о том, как стать собственным банком.

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan