Религиозные лидеры и организации гражданского общества объединили усилия под эгидой Абу-Дабиского форума за мир, чтобы инициировать создание комиссии, которая призвана сыграть ключевую роль в формировании глобального регулирования искусственного интеллекта (ИИ).
Комиссия по вопросам веры и гражданского общества, созданная в Лондоне при поддержке британской консалтинговой компании Good Faith Partnership, стремится преодолеть разрыв между общественностью, политиками и технологическими компаниями, чтобы обеспечить ответственный и инклюзивный подход к управлению искусственным интеллектом.
Комиссия по вопросам веры и гражданского общества – выступает за инклюзивное регулирование ИИ
Комиссия, возглавляемая шейхом Аль Махфудом бин Байей, генеральным секретарем Абу-Дабийского форума за мир, призвана устранить критические пробелы в коммуникации между различными заинтересованными сторонами в сфере регулирования ИИ. Вопросы конфиденциальности данных, дезинформации и потенциального исключения меньшинств часто отходят на второй план по сравнению с дискуссиями о долгосрочных экзистенциальных рисках, связанных с ИИ.
Комиссия стремится вывести голоса религиозных лидеров и представителей меньшинств на передний план обсуждений регулирования ИИ, гарантируя, что гражданское общество не будет упущено из виду при формировании будущего технологий.
В сотрудничестве с университетами ОАЭ комиссия намерена повысить осведомленность о искусственном интеллекте среди мусульманских общин стран Глобального Юга. Способствуя обмену знаниями, инициатива направлена на то, чтобы дать этим общинам возможность использовать ИИ для улучшения своего общества. Шейх Аль-Махфуд бин Байя видит комиссию как «караван веры», который в ближайшие месяцы будет взаимодействовать с представителями африканских правительств, Ватикана и Силиконовой долины, способствуя сотрудничеству, которое могло бы помочь предотвратить использование ИИ экстремистами.
Размышления участников саммита по искусственному интеллекту и опасения по поводу защиты данных
Создание комиссии последовало за саммитом по безопасности в сфере ИИ в Великобритании, на котором был подчеркнут «человекоцентричный» подход к технологиям ИИ. Приветствуя обязательства саммита, члены комиссии выразили обеспокоенность по поводу исключения из обсуждений представителей гражданского общества и меньшинств.
Кейт Девлин из организации Humanists UK подчеркнула технократический характер современных дискуссий об ИИ и недостаточное представительство глобальных точек зрения, призвав к более инклюзивному подходу для решения практических проблем, таких как последствия для рынка труда, аутсорсинг и устойчивое развитие.
Мария Харб из неправительственной организации Stop the Traffik поделилась своими соображениями об использовании ИИ для борьбы с онлайн-дезинформацией и торговлей людьми. Несмотря на положительный эффект, она подчеркнула важность учета проблем конфиденциальности данных, связанных с программами профилактики, направленными на отдельных лиц посредством рекламы в социальных сетях. Сакиб Бхатти, заместитель министра по технологиям и цифровой экономике, заверил в необходимости совместного подхода к регулированию ИИ, подчеркнув необходимость коллективных ценностей и общей ответственности.
Может ли вера повлиять на концепцию регулирования ИИ?
В динамично развивающейся сфере искусственного интеллекта Комиссия по вопросам веры и гражданского общества становится маяком надежды на инклюзивный и этичный подход к регулированию. Работая в глобальном масштабе и сотрудничая с различными заинтересованными сторонами от Мавритании до Силиконовой долины, комиссия ставит перед собой первостепенную задачу усиления голосов гражданского общества и меньшинств в дискуссиях об ИИ.
Главный вопрос этой инициативы, движимой верой, заключается в том, сможет ли она успешно соблюсти тонкую грань между этическими соображениями и технологическими инновациями, проложив путь к тому времени, когда все смогут извлечь выгоду из ИИ, одновременно уменьшив его возможные недостатки.
В мире, стремительно развивающемся благодаря технологиям, стремление комиссии к налаживанию связей в области знаний и развитию сотрудничества отражает общее видение более гуманного искусственного интеллекта. Поскольку комиссия рассматривает вопросы, начиная от конфиденциальности данных и заканчивая социальными последствиями, наследие этой инициативы зависит от ее способности влиять не только на нормативные акты, но и на саму этику, лежащую в основе развития искусственного интеллекта.
Сможет ли этот «караван веры» привести нас к будущему, где эволюция ИИ будет не только новаторской, но и глубоко укорененной в ценностях и разнообразных взглядах мирового сообщества? Только время покажет ответ, поскольку это подкрепленное верой начинание продолжает формировать представление о регулировании ИИ в глобальном масштабе.

