Правительство Австралии инициировало неожиданный восьминедельный период консультаций, направленный на определение того, следует ли запретить определенные инструменты искусственного интеллекта (ИИ) с «высоким риском». Этот шаг следует за аналогичными мерами, принятыми другими регионами, включая США, Европейский союз и Китай, для устранения рисков, связанных с быстрым развитием ИИ.
1 июня министр промышленности и науки Эд Хусик представил на всеобщее обозрение два документа: один о «Безопасном и ответственном ИИ в Австралии», а другой — о генеративном ИИ от Национального совета по науке и технологиям. Эти документы были опубликованы одновременно с периодом консультаций, который продлится до 26 июля.
Правительство Австралии ищет отзывы о стратегиях по продвижению «безопасного и ответственного использования ИИ», изучая такие варианты, как добровольные этические рамки, конкретные правила или сочетание обоих подходов. Примечательно, что в ходе консультации прямо задается вопрос о том, следует ли полностью запретить определенные приложения или технологии искусственного интеллекта с высоким риском, и запрашиваются данные о критериях dent таких инструментов.
Всеобъемлющий дискуссионный документ включает проект матрицы рисков для моделей ИИ, в которой беспилотные автомобили классифицируются как «высокий риск», а генеративные инструменты ИИ для создания медицинских карт пациентов — как «средний риск». В документе подчеркивается как положительное применение ИИ в таких секторах, как медицина, инженерия и юриспруденция, так и потенциальный вред, связанный с дипфейковыми инструментами, созданием фальшивых новостей и случаями, когда боты ИИ поощряют членовредительство.
Австралийское правительство против ИИ
В дискуссионном документе также рассматриваются опасения по поводу предвзятости в моделях ИИ, а также генерации бессмысленной или ложной информации, известной как «галлюцинации» системами ИИ. Он признает, что внедрение ИИ в Австралии в настоящее время ограничено из-за низкого уровня общественного доверия. В документе в качестве примеров упоминаются правила ИИ, введенные в других юрисдикциях, и временный запрет Италии на ChatGPT .
Кроме того, в отчете Национального совета по науке и технологиям подчеркиваются выгодные возможности Австралии в области робототехники и компьютерного зрения, но отмечаются относительные недостатки в основных областях, таких как большие языковые модели. Это вызывает обеспокоенность по поводу концентрации ресурсов генеративного ИИ в руках небольшого числа преимущественно американских технологических компаний, что создает потенциальные риски для Австралии.
В отчете дополнительно исследуется глобальное регулирование ИИ, приводятся примеры генеративных моделей ИИ и предполагается, что такие модели, вероятно, будут иметь далеко идущие последствия для различных секторов, от банковского дела и финансов до государственных услуг, образования и творческих отраслей.