Your bank is using your money. You’re getting the scraps.WATCH FREE

Бывший генеральный директор Google Шмидт призывает к «отключению» систем искусственного интеллекта на определенных уровнях их возможностей

В этом посте:

  • Эрик Шмидт предупреждает, что системы искусственного интеллекта могут в скором времени самосовершенствоваться, и их развитие не следует оставлять без контроля.
  • Мнения экспертов по поводу развития ИИ по-прежнему расходятся: одни опасаются экзистенциальных рисков, связанных с ИИ, другие же утверждают, что создание универсального ИИ еще далеко от реализации.
  • Шмидт с опаской относится к возможности сокращения разрыва между США и Китаем в области искусственного интеллекта, призывая к контролю и приоритету демократических ценностей, чтобы обеспечить лидерство США в гонке за развитие ИИ.

Бывший генеральный директор Google Эрик Шмидт предостерег разработчиков искусственного интеллекта о необходимости контролировать свои возможности в этой области. Он также подчеркнул важность победы Соединенных Штатов в продолжающейся гонке за лидерство в области искусственного интеллекта (ИИ) против Китая.

This Week with George Stephanopoulos» на канале ABC News Шмидт предостерег о потенциальной возможности автономной работы систем искусственного интеллекта dent даже их самосовершенствования.

« Вскоре у нас появится возможность запускать компьютеры самостоятельно, чтобы они сами решали , что им делать», — сказал Шмидт.

Шмидт: Искусственный интеллект не следует оставлять без контроля

Шмидт вновь подчеркнул риски бесконтрольного развития передового искусственного интеллекта, отметив, что системы, способные к самосовершенствованию, представляют собой значительную опасность. 

« Если система способна к самосовершенствованию, нам следует всерьез задуматься о том, чтобы отключить ее от сети », — заявил бывший генеральный директор Google.

Когда Стефанопулос спросил Шмидта, могут ли подобные системы искусственного интеллекта противостоять попыткам их отключения, Шмидт ответил: «Ну, в теории, нам лучше иметь кого-то, кто держит руку на вилке — в переносном смысле»

Хотя опасения по поводу экзистенциальных рисков, связанных с ИИ, растут, некоторые эксперты утверждают, что такие опасения преувеличены. Профессор Ник Дженнингс, проректор по исследованиям Имперского колледжа Лондона, входит в число тех, кто отвергает апокалиптические прогнозы.

Дженнингс утверждает , что, хотя ИИ может преуспевать в решении конкретных задач, создание систем с человекоподобным интеллектом в самых разных областях по-прежнему находится далеко за пределами нынешних возможностей ученых.

« Разработка ИИ, способного очень хорошо выполнять одну единственную задачу, вполне достижима », — объяснил Дженнингс. «Но создание универсального ИИ, который бы отражал человеческий интеллект в различных областях, — это не то, чего мы можем ожидать в ближайшем будущем».

См. также  «Влияние искусственного интеллекта на медиаиндустрию: вызовы и возможности».

Разные мнения об угрозах со стороны ИИ

Между тем, среди ведущих исследователей в области ИИ сохраняются опасения по поводу опасностей, связанных с плохо defiцелями и неадекватными мерами безопасности. Профессор Калифорнийского университета в Беркли Стюарт Рассел и научный сотрудник Майкл Коэн утверждают, что мощные системы ИИ в конечном итоге могут представлять экзистенциальную угрозу для человечества, если их не контролировать.

В аналитической статье, опубликованной в журнале Science, Рассел и Коэн призвали к более строгому надзору за разработкой ИИ. Они подчеркнули необходимость того, чтобы технологические компании доказывали безопасность своих систем ИИ, прежде чем выпускать их на рынок. Без четких целей и надежных мер защиты, утверждают они, передовые системы ИИ могут действовать против интересов человека.

« Если цели этих ИИ будут противоречить целям людей, это может привести к катастрофе », — написали Рассел и Коэн. Они считают, что технологические компании должны нести ответственность за обеспечение безопасности своих систем и dent критических «красных линий», которые ИИ никогда не должен пересекать.

Разгорается дискуссия о безопасности ИИ

Стремительные темпы развития ИИ уже создали ряд проблем, включая распространение дезинформации, поляризацию общества и предвзятость алгоритмов. Опасения по поводу безопасности и регулирования пока не успевают за развитием технологий.

Заявления Шмидта отражают растущую обеспокоенность лидеров отрасли по поводу решения этих проблем. Такие эксперты, как Илон Маск, давно призывают к принятию превентивных мер регулирования для снижения рисков, связанных с ИИ.

См. также:  Навыки работы с ИИ пользуются высоким спросом, поскольку работодатели стремятся восполнить дефицит: отчет за 2024 год.

Маск, который однажды назвал ИИ «самой большой угрозой, с которой мы сталкиваемся как цивилизация», предупреждал , что власти мало что сделали для противодействия его опасностям. Аналогичным образом, физик Стивен Хокинг опасался, что достижение сингулярности — точки, в которой машины превосходят человеческий интеллект, — может лишить человечество возможности контролировать передовые системы ИИ.

В своем интервью Хокинг утверждал, что без регулирования искусственный интеллект может стать «либо лучшим, либо худшим, что когда-либо случалось с человечеством»

Конкуренция между США и Китаем в сфере искусственного интеллекта усиливается

Шмидт отметил, что, хотя ранее США опережали Китай в развитии искусственного интеллекта , за последние шесть месяцев разрыв значительно сократился. « Китай догнал Китай поразительным образом », — сказал он, описав нынешнюю ситуацию как гонку с высокими ставками между двумя сверхдержавами.

« Возможно, через год-два системы смогут начать проводить собственные исследования. Их будут называть учеными в области искусственного интеллекта, в отличие от ученых-людей. Таким образом, количество ученых-людей увеличится с 1000 до миллиона. Я думаю, это ускорит процесс, и при такой скорости конкурентам будет очень трудно нас догнать », — отметил он.

Шмидт считает, что приходящая к власти администрация Трампа будет уделять приоритетное внимание конкурентоспособности США в области искусственного интеллекта, что он рассматривает как позитивный шаг. «Пока сохраняются человеческие ценности, — сказал он, — все будет в порядке».

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно .

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitan не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы настоятельно tron провести независимое dent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan