Призыв Илона Маска остановить все гигантские эксперименты с искусственным интеллектом вызвал шок в технологической отрасли, и многие влиятельные фигуры поддержали этот шаг. Поскольку риски, связанные с неконтролируемым развитием ИИ, становятся все более очевидными, криптосообщество также принимает к сведению предупреждение.
поскольку многие блокчейн- и криптопроекты, как утверждается, в значительной степени полагаются на алгоритмы искусственного интеллекта и машинного обучения, потенциальное влияние нерегулируемых экспериментов в этой области может иметь катастрофические последствия.
Стив Возняк, соучредитель Apple, присоединился к Маску в подписании открытого письма, подчеркнув безотлагательность ситуации. Согласно знакомым источникам, по мере того, как криптовалюта все больше переплетается с ИИ, надлежащая интеграция с правительствами и регулирующими органами стала иметь первостепенное значение.
Без надлежащего надзора риски, связанные с бесконтрольным экспериментированием, могут привести к катастрофе для зарождающейся отрасли. Таким образом, многие эксперты призывают приостановить все крупномасштабные проекты в области искусственного интеллекта до тех пор, пока эти проблемы не будут решены.
Предупреждение о мощных системах искусственного интеллекта и влиянии на криптографию
В письме содержится призыв к технологическим компаниям не разрабатывать системы искусственного интеллекта (ИИ), которые превосходят возможности GPT-4, которая является самой последней передовой технологией в больших системах обработки языков.
В частности, в письме GPT-4 упоминается как «новейшая передовая технология в больших системах обработки языков». Согласно статье, опубликованной в журнале Fortune, эффективность моделей искусственного интеллекта пропорциональна как размеру моделей, так и количеству специализированных компьютерных чипов, которые необходимы для их обучения.
В результате письмо призвано служить предупреждением о том, что любые дополнительные разработки в области искусственного интеллекта могут привести к созданию машин, неподконтрольных человеку. Согласно письму, бизнес-сектор технологий в настоящее время находится на распутье, на котором он должен сделать выбор: делать ли упор на безопасность или продолжать расширять границы развития искусственного интеллекта.
Есть опасения, что если предприятия продолжат разработку систем искусственного интеллекта, выходящих за рамки возможностей GPT-4, это может привести к катастрофическим последствиям, таким как потеря рабочих мест, вторжение в частную жизнь и даже экзистенциальные опасности для человечества. В результате письмо призывает технологические компании задуматься о потенциальных результатах своей деятельности и более ответственно подходить к развитию искусственного интеллекта.
Вкратце, письмо призывает технологические компании проявлять осторожность и воздерживаться от разработки систем искусственного интеллекта, более совершенных, чем те, которые предлагают конкретные фирмы.