Загрузка...

Насколько опасно внедрение ИИ? Крестный отец ИИ уходит из Google

TL;DR

  • Доктор Джеффри Хинтон уходит из Google на фоне растущего распространения ИИ по всему миру.
  • Отставка доктора Джеффри Хинтона произошла, когда он решил обнародовать и открыто рассказать об опасностях, которые ИИ представляет для человечества.
  • Инструменты искусственного интеллекта начинают создавать фейковые новости и интервью, что приводит к путанице в медиапотреблении.
  • Илон Маск и более 2600 технических экспертов предупреждают об опасностях искусственного интеллекта

Быстро растущее внедрение ИИ подвергает человечество катастрофическим опасностям. Шокирующим поворотом событий стало то, что доктор Джеффри Хинтон, широко известный как «Крестный отец ИИ», подал в отставку со своей должности в Google и выступил с суровым предупреждением об опасностях искусственного интеллекта.

ИИ оказался величайшей угрозой для человечества

Согласно сообщениям, «Крестный отец ИИ» подал в отставку со своей должности в Google, чтобы более открыто говорить о потенциальных рисках искусственного интеллекта. технологии. Доктор Джеффри Хинтон работал над алгоритмами машинного обучения в Google более десяти лет, прежде чем покинуть компанию. Сообщается, что его пожизненная работа над нейронными сетями принесла ему это прозвище.

Отставка доктора Джеффри произошла на фоне растущей озабоченности по поводу использования искусственного интеллекта. в различных отраслях, включая здравоохранение, финансы и транспорт. Критики утверждают, что искусственный интеллект может привести к увольнению, нарушению конфиденциальности и даже к разработке автономного оружия.

В интервью The New York Times он заявил, что его больше всего беспокоит использование искусственного интеллекта для наводнения Интернета фальшивыми фотографиями, видео и текстом до такой степени, что люди больше не «могут знать, что является правдой». больше."

Хинтон также опасался замены человеческого труда технологиями искусственного интеллекта. Он считает, что искусственный интеллект может представлять угрозу для человечества в будущем из-за его способности приобретать неожиданное поведение из огромных объемов данных, которые он анализирует. Хинтон также выразил сожаление по поводу дела всей своей жизни:

Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой.

Доктор Джеффри Хинтон

Отставка доктора Джеффри Хинтона вызвала шок в технологической отрасли, и многие эксперты призывают к усилению контроля и регулирования искусственного интеллекта. Поскольку споры о рисках и преимуществах искусственного интеллекта продолжаются, становится ясно, что вклад таких пионеров, как доктор Джеффри Хинтон, будет иметь решающее значение в формировании будущего этой быстро развивающейся технологии.

Многие технические эксперты предупреждают об опасностях искусственного интеллекта

В последние месяцы регулирующие органы, законодатели и лидеры технологической отрасли выразили обеспокоенность по поводу развития искусственного интеллекта. В марте более 2600 технических руководителей и исследователей подписали открытое письмо с призывом временно приостановить разработку искусственного интеллекта, сославшись на «серьезные риски для общества и человечества».

В апреле 12 законодателей Европейского союза подписали аналогичное письмо, а недавний законопроект ЕС классифицирует инструменты искусственного интеллекта в соответствии с их уровнем риска. Кроме того, Великобритания предоставит 125 миллионов долларов целевой группе по разработке «безопасного ИИ».

Как сообщается, инструменты искусственного интеллекта уже используются для дезинформации, и недавние примеры того, как средства массовой информации обманом публикуют ложные новости. Кроме того, одно немецкое издание использовало искусственный интеллект для фальсификации интервью.

Binance заявила 1 мая, что ее генеральный директор Чанпэн «CZ» Чжао был членом студенческой организации Коммунистической партии Китая dent что было распространено чат-ботом из ChatGPT, о чем свидетельствуют скриншоты чат-бота.

На прошлой неделе группа шутников также обманула несколько СМИ по всему миру, включая Daily Mail и The dent . The Daily Mail опубликовала статью о предполагаемом канадском актере по имени «Святой фон Колуччи», который, как говорят, умер после пластической операции, чтобы сделать его больше похожим на южнокорейскую поп-звезду. Впоследствии Daily Mail удалила статью.

Каковы прогнозируемые опасности ИИ для человечества?

Есть несколько предсказуемых опасностей искусственного интеллекта для человечества, некоторые из которых уже испытаны, а другие могут возникнуть в будущем. Вот некоторые из наиболее опасных опасностей:

1. Смещение рабочих мест: по мере того, как искусственный интеллект становится все более совершенным, существует риск того, что он заменит людей во многих отраслях, что приведет к массовым потерям рабочих мест и экономическому спаду. Илон Маск отметил, что есть работы, которые роботы возьмут на себя и будут выполнять лучше, чем люди

2. Автономное оружие. Разработка автономного оружия, которое может принимать решения о том, кого нацелить и когда атаковать, без вмешательства человека, вызывает серьезную озабоченность. Это оружие потенциально может привести к непреднамеренному ущербу, поскольку оно может выйти из строя или быть взломано.

3. Непредвиденные последствия. По мере усложнения систем искусственного интеллекта возникает риск того, что они могут привести к непредвиденным последствиям, которые могут нанести вред. Например, искусственный интеллект. система, предназначенная для максимизации прибыли компании, может непреднамеренно нанести вред окружающей среде или обществу.

4. Предвзятость и дискриминация: системы искусственного интеллекта беспристрастны ровно настолько, насколько объективны данные, на которых они обучаются, а это означает, что если данные, используемые для их обучения, предвзяты, система искусственного интеллекта также будет предвзятой. Это может иметь серьезные последствия, особенно в таких областях, как уголовное правосудие, где предвзятые системы искусственного интеллекта могут привести к несправедливому обращению с определенными группами.

5. Риски кибербезопасности: по мере того, как системы искусственного интеллекта становятся более совершенными, они также могут становиться более уязвимыми для кибератак. Если система ИИ будет взломана, она потенциально может быть использована для причинения вреда или нарушения работы критически важных систем.

6. Отсутствие прозрачности и подотчетности. Если системы искусственного интеллекта принимают важные решения о жизни людей, например о предоставлении им кредита или освобождении под залог, важно, чтобы эти системы были прозрачными и подотчетными. Однако есть опасения, что некоторые системы искусственного интеллекта могут быть непрозрачными и сложными для понимания или аудита.

7. Экзистенциальные риски. Некоторые эксперты высказывают опасения, что развитие искусственного интеллекта может представлять экзистенциальную угрозу человечеству либо в результате разработки сверхразумного искусственного интеллекта, неподконтрольного человеку, либо в результате использования ИИ в военных или иных разрушительных целях.

Отказ от ответственности. Предоставленная информация не является торговым советом. Cryptopolitan.com не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мы tron рекомендуем провести dent исследование и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какое-либо инвестиционное решение.

Поделиться ссылкой:

Флоренс Мухай

Флоренс — криптоэнтузиаст и писатель, который любит путешествовать. Как цифровой кочевник, она исследует преобразующую силу технологии блокчейн. Ее письмо отражает безграничные возможности человечества для общения и роста.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалюты, получайте ежедневные обновления на свой почтовый ящик.

Связанные новости

Stripe теперь предлагает покупку и передачу AVAX через C-Chain Avalanche
Криптополит
Подпишитесь на КриптоПолитан