В рамках одной из своих главных инициатив по стимулированию ответственного внедрения технологий искусственного интеллекта в правительстве США Белый дом обозначил необходимость проведения объективных тестов инструментов ИИ, используемых в различных государственных учреждениях.
Указ, изданный Управлением по бюджету и управлению, представляет собой одну из ключевых политических программ администрации Байдена, направленную на минимизацию возможных рисков, включая дискриминацию и нарушения конфиденциальности.
Федеральные ведомства готовятся к надзору и обеспечению подотчетности в сфере искусственного интеллекта
Как было объявлено в общеправительственной политике, федеральные ведомства разработаютtronоперативные системы, соответствующие правам и безопасности граждан. Их внедрение должно состояться к 1 декабря, когда искусственный интеллект будет применяться таким образом, что сможет влиять на жизнь людей.
В частности, эти меры направлены на устранение различий, посягательств на частную сферу и расхождений между различными секторами, включая безопасность на транспорте, здравоохранение и предоставление услуг. Помимо прочих мер, для обеспечения надзора следует назначать руководителей в области искусственного интеллекта или борьбы с преступностью и правоприменением
Для контроля за выполнением рекомендаций Управления по бюджету и управлению (OMB) в отношении искусственного интеллекта и координации его использования в различных ведомствах будут назначены главные специалисты по искусственному интеллекту. Эти должностные лица будут участвовать в создании и обеспечении прозрачности и подотчетности внедрения искусственного интеллекта в федеральном правительстве.
Вице-dent Камала Харрис подчеркнула, что эти внутренние политические меры призваны служить образцом для глобальных действий, особо отметив важность приоритетного использования искусственного интеллекта в интересах общества. Администрация планирует к лету нанять не менее 100 сотрудников, специализирующихся на искусственном интеллекте, что еще раз подчеркивает ее приверженность этой инициативе.
Тщательное тестирование систем высокого риска
Высокопоставленные должностные лица администрации заявили, что системы высокого риска будут подвергаться тщательному тестированию дляdentи смягчения потенциальных искажений и рисков. Такой упреждающий подход подчеркивает приверженность администрации обеспечению ответственного использования технологий искусственного интеллекта в государственных операциях.
Согласно новым правилам, американцы могут добиваться возмещения ущерба, если считают, что системы привели к распространению ложной информации или принятию ложных решений, затрагивающих их интересы.
Федеральные ведомства обязаны публиковать список систем, оценки рисков и стратегии управления. Для программного обеспечения, не соответствующего административным правилам, могут быть предоставлены исключения, однако необходимо обосновать это, обеспечивая прозрачность и подотчетность при внедрении искусственного интеллекта.
Вызовы и направления дальнейшего развития
Александра Рив Гивенс, президент dent генеральный директор Центра демократии и технологий, назвала эти рекомендации важным шагом на пути к обеспечению ответственного ИИ в федеральных ведомствах.
Гивенс подчеркнул важность наличия строгих процедур для оценки потенциального воздействия новых технологий на отдельных людей и сообщества.
Хотя федеральные ведомства используют технологии искусственного интеллекта уже много лет, более широкое регулирование ИИ застопорилось в Конгрессе. В результате администрация Байдена использует положение правительства как крупного заказчика технологий для установления гарантий и содействия ответственному внедрению ИИ.
Несмотря на активные меры, предпринятые администрацией, проблемы сохраняются, особенно в отношении сохранения предвзятости в системах искусственного интеллекта. Случаи расовой предвзятости и неточности в принятии решений с помощью ИИ подчеркивают необходимость постоянной бдительности и контроля при внедрении ИИ.
Введение Белым домом обязательного тестирования на предвзятость и надзора за использованием ИИ в федеральных ведомствах представляет собой важный шаг на пути к обеспечению ответственного и этичного внедрения технологий ИИ. Внедряя конкретные меры защиты, содействуя прозрачности и повышая подотчетность перед общественностью, администрация стремится устранить потенциальные риски, одновременно используя преобразующий потенциал ИИ на благо общества.

