Прогресс Соединенного Королевства (Великобритании) в обеспечении этических норм и мер безопасности в отношении искусственного интеллекта (ИИ) ускорился с появлением набора инструментов Inspect, разработанного Британским институтом безопасности. Inspect, предназначенный для гарантирования безопасности ИИ, предлагает полный алгоритм оценки моделей ИИ , что знаменует собой важный этап в стремлении к прозрачному и ответственному развитию ИИ.
Новый орган правительства Великобритании по безопасности ИИ выпустил Inspect, инструмент оценки возможностей моделей ИИ, включая их основные знания и способность к рассуждению (@kyle_l_wiggers / TechCrunch)https://t.co/IuYAtYHcIX
— Techmeme (@Techmeme) 11 мая 2024 г
📫 Подписаться: https://t.co/OyWeKSRpIMhttps://t.co/MJQ20I1Jff
Революционный подход к тестированию безопасности ИИ
Главная особенность Inspect заключается в его способности определять полномочия сложных алгоритмов искусственного интеллекта. Из-за своей непрозрачности, которая может подразумевать неразглашение критически важных аспектов, таких как базовая инфраструктура и обучающие данные, эти модели представляют собой серьезную проблему. Inspection преодолевает эту проблему благодаря своей очень гибкой архитектуре, которая позволяет легко дополнять уже существующие технологии и методы тестирования.
Он включает три основных модуля: наборы данных, решатели и оценщики. Модули организованы таким образом, чтобы обеспечитьmatic процесс тестирования. Наборы данных являются ресурсом для оценочного тестирования с использованием выборочных совокупностей; затем оценщики оценивают результаты выполнения решателей, а полученные оценки компилируются в агрегированные метрики. Ключевым моментом является то, что структуру Inspect можно расширить за счет интеграции внешних пакетов Python, что повышает эффективность и полезность Inspect.
Новаторское сотрудничество и глобальное влияние
Запуск безопасности ИИ, преодолевая географические и организационные разногласия. Иэн Хогарт, председатель Института безопасности, заявляет, что коллективный подход имеет ключевое значение, и Inspect должен стать эталоном для стандартизированных, высококачественных оценок среди всех заинтересованных сторон, включая различные секторы и заинтересованные стороны.
Дебора Радж, специалист по этике ИИ и научный сотрудник Mozilla, считает, что разработка Inspect является одним из примеров преобразующего эффекта государственных инвестиций в инструменты оценки ответственности в сфере ИИ с открытым исходным кодом. Выпуск Inspect вызвал отклик не только в академических кругах и промышленности, но и за пределами индустрии: Клеман Деланг, генеральный директор стартапа Hugging Face, занимающегося разработкой ИИ, призывает включить его в существующие библиотеки моделей и создать общедоступную таблицу лидеров, где будут отображаться результаты оценки.
Трансатлантический сдвиг парадигмы в управлении ИИ
Презентация Inspect призвана стать частью широкого признания необходимости международного управления и подотчетности в сфере ИИ. США и Великобритания работают вместе, опираясь на соглашения Саммита по безопасности ИИ в Блетчли-Парке в качестве примера, над совместной разработкой протоколов тестирования для передовых моделей ИИ. В качестве первого шага Соединенные Штаты планируют создать институт безопасности ИИ, создание которого соответствует общей целиdentи устранения рисков, связанных с ИИ и генеративным ИИ.
Приложение Inspect, представляющее собой ИИ нового поколения, знаменует собой важную веху в развитии искусственного интеллекта, центральной темой которого являются прозрачность, подотчетность и ответственное управление. Обеспокоенность по поводу ответственного использования искусственного интеллекта как со стороны государств, так и организаций вдохновляет на такие инициативы, как Inspect, которые предсказывают светлое будущее, когда ИИ станет все более приемлемым для людей благодаряtronвниманию к развитию доверия, честности и человекоцентричных ценностей.

