Призыв Илона Маска остановить все масштабные эксперименты с искусственным интеллектом вызвал шок в технологической индустрии, и многие влиятельные деятели поддержали этот шаг. Поскольку риски, связанные с бесконтрольным развитием ИИ, становятся все более очевидными, криптосообщество также обратило внимание на это предупреждение.
Илон Маск подписал открытое письмо, призывающее остановить обучение новых моделей ИИ, более мощных, чем GPT-4.
— Арам Мугалян.eth (@AramMughalyan) 29 марта 2023 г
Появилось понимание того, что быстрое развитие ИИ может представлять серьезную опасность для человечества.
Пора сначала притормозить и убедиться, что мы понимаем, как можем это контролировать? pic.twitter.com/mR4YOGVaz7
По мнению экспертов, поскольку многие блокчейн- и криптопроекты, как утверждается, в значительной степени полагаются на алгоритмы искусственного интеллекта и машинного обучения, потенциальное влияние нерегулируемых экспериментов в этой области может иметь катастрофические последствия.
Стив Возняк, сооснователь Apple, присоединился к Маску, подписав открытое письмо, что подчеркивает неотложность ситуации. По словам знакомых источников, по мере того как криптовалюты все больше переплетаются с искусственным интеллектом, надлежащая интеграция с правительствами и регулирующими органами становится первостепенной задачей.
Без надлежащего контроля риски, связанные с неконтролируемыми экспериментами, могут обернуться катастрофой для зарождающейся отрасли. В связи с этим многие эксперты призывают приостановить все крупномасштабные проекты в области ИИ до тех пор, пока эти проблемы не будут решены.
Предупреждение о мощных системах искусственного интеллекта и их влиянии на криптовалюты
В письме содержится призыв к технологическим компаниям не разрабатывать системы искусственного интеллекта (ИИ), превосходящие возможности GPT-4, которая является новейшей передовой технологией в области обработки больших объемов лингвистических данных.
В частности, в письме GPT-4 упоминается как «новейшая передовая технология в системах обработки больших объемов языка». Согласно статье, опубликованной в журнале Fortune, эффективность моделей искусственного интеллекта пропорциональна как размеру самих моделей, так и количеству специализированных компьютерных чипов, необходимых для их обучения.
В результате, письмо призвано служить предупреждением о том, что любое дальнейшее развитие искусственного интеллекта может привести к созданию машин, неподвластных контролю человека. Согласно письму, технологический бизнес в настоящее время находится на перепутье, где ему необходимо выбрать, делать ли акцент на безопасности или продолжать расширять границы развития искусственного интеллекта.
Есть опасения, что если компании продолжат разработку систем искусственного интеллекта, выходящих за рамки возможностей GPT-4, это может привести к катастрофическим последствиям, таким как потеря рабочих мест, нарушение конфиденциальности и даже угроза существованию человечества. В связи с этим в письме содержится призыв к технологическим компаниям задуматься о потенциальных последствиях своей деятельности и занять более ответственный подход к разработке искусственного интеллекта.
Вкратце, в письме содержится призыв к технологическим компаниям проявлять осторожность и воздерживаться от разработки систем искусственного интеллекта, которые превосходят по своим характеристикам системы, предлагаемые конкретными фирмами.
криптовалюта