Британские законодатели настаивают на проведении стресс-тестов искусственного интеллекта во избежание сбоев на рынке

- Британские законодатели хотят, чтобы финансовые регуляторы проводили стресс-тесты искусственного интеллекта для выявления рисков на ранних стадиях.
- Говорят, что регулирующие органы действуют слишком медленно, несмотря на широкое использование искусственного интеллекта в финансовом секторе.
- Депутаты предупреждают, что сбои в системах искусственного интеллекта могут быстро нарушить работу рынков и нанести вред потребителям.
Межпартийная группа британских законодателей призывает регулирующие органы внедрить стресс-тесты, ориентированные на искусственный интеллект, для финансового сектора, предупреждая, что растущее использование искусственного интеллекта может привести к серьезным сбоям для потребителей и рынков, если его не контролировать.
В опубликованном во вторник докладе Комитет по финансовым вопросам Палаты общин подверг критике Управление по финансовому регулированию и надзору (FCA) и Банк Англии за, по мнению депутатов, осторожную, выжидательную позицию в отношении регулирования искусственного интеллекта, несмотря на его широкое внедрение в лондонском Сити.
Чиновники заявляют, что быстро развивающиеся технологии требуют более оперативной реакции со стороны надзорных органов, например, путем внедрения стресс-тестов. Поскольку финансовые компании все больше полагаются на искусственный интеллект, задержки могут подорвать стабильность. Когда машины обрабатывают сделки, утверждают кредиты или прогнозируют риски, сбои могут незаметно ripple на множество платформ. Если несколько систем выйдут из строя одновременно, может возникнуть хаос еще до того, как кто-либо отреагирует.
Законодатели заявляют, что искусственный интеллект может дестабилизировать финансовые рынки.
Появляются предупреждения о пробелах в надзоре по мере быстрого распространения искусственного интеллекта в британском финансовом секторе. Некоторые чиновники предполагают , что недостаточно внимания уделяется тому, что может произойти, если системы слишком сильно опередят надзор. Комитет по финансовым вопросам парламента указывает на задержки со стороны Банка Англии, Управления по финансовому регулированию и надзору и Казначейства в управлении рисками. Темпы, заданные частными компаниями, использующими передовые инструменты, опережают текущие усилия по нормотворчеству.
Слишком долгое ожидание может привести к проблемам, которые возникнут прежде, чем кто-либо сможет отреагировать. Комитет отмечает, что чиновники медлят, надеясь, что проблем не возникнет. Когда системы дают сбой, практически не остается времени, чтобы быстро все исправить. Вместо того чтобы вмешиваться позже, гораздо разумнее наблюдать за тем, как искусственный интеллект действует в сложные моменты. Чиновники считают, что подготовка лучше, чем суматоха, когда все уже рушится.
Компании финансового сектора Великобритании все чаще полагаются на искусственный интеллект, зачастую не проводя стресс-тестирование его работы в условиях высокой нагрузки. Более 75% британских финансовых учреждений используют ИИ во всех центральных функциях, поэтому его влияние на экономические решения, если и остается незаметным, то практически не ощущается. Решения об инвестициях принимаются на основе машинной логики, а не человеческого инстинкта. Автоматизация направляет процесс утверждения, а алгоритмы оценивают право на получение кредита без традиционной проверки. Страховые выплаты осуществляются не на основе оценок клерков, а на основе закодированных оценок.
Даже самые простые документы обрабатываются в цифровом виде, а не вручную. Скорость defiэти процессы; однако быстрота увеличивает вероятность возникновения ошибок. Одна-единственная ошибка может иметь далеко идущие последствия, поскольку связи между организациями очень тесны.
Джонатан Холл, внешний член Комитета по финансовой политике Банка Англии, заявил законодателям, что специально разработанные стресс-тесты для искусственного интеллекта могут помочь надзорным органам выявлять возникающие риски на более ранних стадиях. По его словам, стресс-сценарии, имитирующие серьезные рыночные потрясения, могут выявить уязвимости в системах ИИ до того, как произойдут более масштабные последствия для системной устойчивости.
Депутаты призывают регулирующие органы проверить риски, связанные с искусственным интеллектом, и установить четкие правила
Настойчивое требование депутатов о принятии более решительных мер по предотвращению незаметного подрыва экономической стабильности искусственным интеллектом, начиная с оценки стресс-тестов, представляется логичным для надзорных органов. Финансовые надзорные органы сталкиваются с растущим давлением со стороны законодателей с целью принятия специализированных оценок, ориентированных на ИИ, аналогичных тем, которые использовались для банков во время экономических спадов.
В условиях повышенной нагрузки автоматизированные инструменты могут действовать непредсказуемо; контролирующим органам нужны доказательства, а не предположения. Только посредством таких испытаний власти смогут точно увидеть, как алгоритмы могут спровоцировать сбои или усилить потрясения после изменения рыночной конъюнктуры.
Стресс-тесты могут имитировать то, что происходит, если искусственный интеллект неожиданно нарушает работу рынков. Когда алгоритмы ведут себя некорректно или перестают работать, надзорные органы могут наблюдать за реакцией банков под давлением.
Предварительная подготовка выявляет уязвимости не только в торговых платформах, но и в оценке рисков и мерах защиты внутри организаций. Устранение проблем на ранней стадии представляется более разумным, чем реагирование после того, как хаос быстро распространится по финансовым каналам.dentпроблем заранее позволит как надзорным органам, так и компаниям скорректировать курс, пока еще есть время.
Помимо стресс-тестирования, члены парламента подчеркивают необходимость четких руководящих принципов, регулирующих рутинное использование искусственного интеллекта в финансовых учреждениях. Управление по финансовому регулированию и надзору настоятельно призывается установить четкие границы для этичного применения ИИ в реальных условиях.
В рекомендациях необходимо разъяснить, как применяются существующие меры защиты потребителей, когда решения принимают автоматизированные системы вместо людей, чтобы предотвратить пробелы в ответственности в случае сбоев. Распределение ответственности должно быть четко определено в случае некорректной работы ИИ, что не позволит компаниям перекладывать вину на машины.
Если что-то пойдет не так даже с одной основной технологической платформой, это может привести к сбою во многих банках. Сейчас на нескольких компаниях лежит большая ответственность за бесперебойную работу банковских систем по всей стране.
Когда сервисы, размещенные такими компаниями, как Amazon Web Services или Google Cloud, сталкиваются с проблемами, ripple наступают очень быстро. Законодатели указывают на то, насколько хрупкими становятся отношения, когда так много людей зависят от так малого числа. Чем больше зависимость, тем сильнее удар по всем, если возникнет сбой.
Ваш банк использует ваши деньги. Вам достаются лишь объедки. Посмотрите наше бесплатное видео о том, как стать собственным банком.
КУРС
- Какие криптовалюты могут принести вам деньги?
- Как повысить безопасность своего кошелька (и какие из них действительно стоит использовать)
- Малоизвестные инвестиционные стратегии, используемые профессионалами
- Как начать инвестировать в криптовалюту (какие биржи использовать, какую криптовалюту лучше купить и т.д.)















