В быстро развивающейся области искусственного интеллекта ведущие исследователи и выдающиеся деятели бьют тревогу, требуя кардинального изменения подхода к безопасности ИИ. В письме, подписанном тремя лауреатами премии Тьюринга, лауреатом Нобелевской премии и более чем десяткомsteemученых в области ИИ, подчеркивается острая необходимость для правительств и компаний выделять значительную часть средств, выделяемых на исследования и разработки в области ИИ, для обеспечения безопасности и этичного использования этих передовых систем.
Приближается Международный саммит по безопасности ИИ
В преддверии предстоящего Международного саммита по безопасности ИИ в Лондоне вопрос о необходимости решения проблем, связанных с рисками в сфере искусственного интеллекта, выходит на первый план. В письме изложен комплекс мер, настоятельно призывающих правительства и компании, занимающиеся ИИ, выделять не менее одной трети своих средств на исследования и разработки в области безопасности ИИ. Джеффри Хинтон, Эндрю Яо, Даниэль Канеман, Доун Сонг и Юваль Ноа Харари, а также другие выдающиеся деятели, подчеркивают необходимость принятия упреждающих мер для предотвращения потенциального вреда от постоянно развивающихся передовых систем ИИ.
Согласно письму, подписанному видными деятелями исследовательского сообщества в области ИИ, существует общее мнение о том, что правительства должны взять на себя ключевую роль в установлении юридической ответственности за предсказуемый и предотвратимый вред, причиняемый системами ИИ. Призыв к подотчетности призван восполнить пробел, образовавшийся из-за отсутствия широкомасштабных нормативных актов, специально посвященных вопросам безопасности ИИ.
Правительства призывают привлечь компании, занимающиеся разработкой искусственного интеллекта, к ответственности за причиненный ими вред
В настоящее время существует заметный пробел в плане всеобъемлющего регулирования, направленного на обеспечение безопасности ИИ. Первоначальный пакет законодательных актов Европейского союза, хотя и находится в стадии разработки, еще не принят, поскольку законодатели сталкиваются с нерешенными проблемами. В письме содержится призыв к скорейшему устранению этого нормативного пробела, подчеркивая, что стремительный прогресс ИИ требует столь же быстрых мер предосторожности для обеспечения этичного развития.
Йошуа Бенджио, которого часто называют одним из крестных отцов ИИ, подчеркивает неотложную необходимость инвестиций в безопасность ИИ. В письме выражается мнение, что новейшие передовые модели ИИ считаются чрезмерно мощными и значимыми, что требует демократического контроля, о чем предупреждает автор. Темпы развития ИИ, значительно опережающие меры предосторожности, требуют немедленных и существенных усилий по защите от потенциальных рисков.
Мощные модели искусственного интеллекта вызывают тревогу
Подписавшие письмо, среди которых такие выдающиеся личности, как Джеффри Хинтон и лауреат Нобелевской премии Даниэль Канеман, обращают внимание на поразительные возможности современных моделей искусственного интеллекта. Они утверждают, что эти модели слишком влиятельны, чтобы оставлять их без контроля, и подчеркивают важность демократического надзора за их разработкой.
Стюарт Рассел, британский специалист по информатике, отвергает опасения компаний по поводу затрат на соблюдение нормативных требований, подчеркивая необходимость регулирования. Рассел оспаривает утверждение о том, что регулирование подавляет инновации, указывая на то, что, согласно содержанию письма, регулированию деятельности сэндвич-баров больше, чем регулирования деятельности компаний, занимающихся искусственным интеллектом. Призыв к быстрым и решительным действиям основан на понимании того, что бесконтрольное развитие ИИ создаетdentриски, требующие немедленного внимания.
Дискуссия о безопасности ИИ достигает критической точки: ведущие исследователи и влиятельные лица призывают правительства и компании уделять первостепенное внимание этическим соображениям и выделять ресурсы для обеспечения ответственного развития ИИ. В преддверии Международного по безопасности ИИ остается вопрос: будут ли услышаны эти настоятельные призывы к действию, или потенциальные риски бесконтрольного развития ИИ будут продолжать расти?

