ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Исследователи из Массачусетского технологического института объявили о создании хранилища рисков в области искусственного интеллекта

Автор:Энаси МапакамеЭнаси Мапакаме
3 минуты чтения,
  • В результате была создана база данных, содержащая более 700 уникальных рисков, связанных с искусственным интеллектом
  • Данный репозиторий поможет всем заинтересованным сторонам принимать обоснованные решения в своей деятельности.
  • В Массачусетском технологическом институте (MIT) риски, связанные с искусственным интеллектом, были разделены на семь различных областей, включая дезинформацию и действия злоумышленников, среди прочего.

Исследователи из Массачусетского технологического института и другие организации создали Репозиторий рисков ИИ — обширную базу данных задокументированных рисков, усугубляемых системами искусственного интеллекта. Это происходит на фоне быстрого развития технологий, что также связано с рисками использования систем ИИ.

Цель данного репозитория — помочь лицам, принимающим решения в различных учреждениях, таких как правительство, научные организации, предприятия и промышленность, оценить возникающие риски, связанные с искусственным интеллектом, несмотря на его потенциал трансформации.

В репозитории представлена ​​упорядоченная документация по рискам, связанным с искусственным интеллектом

Поскольку ряд организаций и исследователей признали важность решения проблем, связанных с рисками в сфере ИИ, усилия по документированию и классификации этих рисков в значительной степени оказались неуклюжими, что привело к фрагментированному ландшафту противоречивых систем классификации.

«Нам нужен был всеобъемлющий обзор рисков, связанных с ИИ, который можно было бы использовать в качестве контрольного списка», — рассказал VentureBeat.

«Однако, изучив литературу, мы обнаружили, что существующие классификации рисков похожи на кусочки головоломки: по отдельности интересные и полезные, но неполные»

Неопрятный.

Репозиторий рисков в области ИИ решает вышеуказанную проблему, объединяя информацию из 43 существующих таксономий, включая рецензируемые статьи, препринты, доклады конференций и отчеты.

В результате этого тщательного процесса отбора была создана база данных, содержащая более 700 уникальных рисков. В хранилище используется двухмерная система классификации.

Во-первых, риски классифицируются на основе их причин, с учетом ответственного субъекта (человек или ИИ), намерения (непреднамеренное или международное) и времени возникновения (после разработки или до внедрения).

По данным Массачусетского технологического института, такая базовая классификация помогает понять ситуации и механизмы, посредством которых могут возникать риски, связанные с искусственным интеллектом.

Исследователи из Массачусетского технологического института разделили риски, связанные с ИИ, на семь категорий

С другой стороны, риски подразделяются на семь различных областей, включая дезинформацию и злоумышленников, неправомерное использование, дискриминацию и токсичность, конфиденциальность и безопасность.

Репозиторий рисков ИИ задуман как постоянно обновляемая база данных и находится в открытом доступе, и учреждения могут загружать его для собственного использования.

Исследовательские группы могут планировать регулярное обновление базы данных с учетом новых рисков, последних открытий и меняющихся тенденций.

Репозиторий рисков в сфере ИИ также призван стать практическим ресурсом для предприятий в различных секторах. Для организаций, разрабатывающих системы ИИ, репозиторий служит бесценным контрольным списком для оценки рисков и их смягчения.

«Организации, использующие ИИ, могут извлечь выгоду из применения базы данных рисков ИИ и соответствующих таксономий в качестве полезной основы для всесторонней оценки подверженности рискам и управления ими»

Исследователи из Массачусетского технологического института.

«Эти таксономии также могут оказаться полезными дляdentконкретных действий, которые необходимо предпринять для снижения определенных рисков», — добавили исследователи.

Например, организация, внедряющая систему найма персонала на основе искусственного интеллекта, может использовать это хранилище данных для выявления потенциальных рисков, связанных с дискриминацией и предвзятостью.

Таким образом, компания, использующая ИИ для модерации контента, может использовать область «дезинформации», чтобы понять потенциальные риски, связанные с контентом, созданным ИИ, и создать необходимые механизмы защиты.

Исследователи из Массачусетского технологического института в сотрудничестве с коллегами из Университета Квинсленда, Института будущего жизни, Лёвенского университета и стартапа в области искусственного интеллекта Harmony Intelligence провели поиск в академических базах данных и извлекли документы, касающиеся рисков, связанных с ИИ.

Исследователи также сообщили, что хранилище рисков в области ИИ будет использоваться в других исследованиях дляdentновых пробелов, требующих внимания.

«Мы будем использовать этот репозиторий дляdentпотенциальных пробелов или дисбалансов в подходах организаций к управлению рисками», — сказал Нил Томпсон, руководитель лаборатории MIT FutureTech Lab.

Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС