Быстро растущее внедрение ИИ подвергает человечество катастрофическим опасностям. Шокирующим поворотом событий стало то, что доктор Джеффри Хинтон, широко известный как «Крестный отец ИИ», подал в отставку со своей должности в Google и выступил с суровым предупреждением об опасностях искусственного интеллекта.
ИИ оказался величайшей угрозой для человечества
Согласно сообщениям, «Крестный отец ИИ» подал в отставку со своей должности в Google, чтобы более открыто говорить о потенциальных рисках искусственного интеллекта. технологии. Доктор Джеффри Хинтон работал над алгоритмами машинного обучения в Google более десяти лет, прежде чем покинуть компанию. Сообщается, что его пожизненная работа над нейронными сетями принесла ему это прозвище.
Отставка доктора Джеффри произошла на фоне растущей озабоченности по поводу использования искусственного интеллекта. в различных отраслях, включая здравоохранение, финансы и транспорт. Критики утверждают, что искусственный интеллект может привести к увольнению, нарушению конфиденциальности и даже к разработке автономного оружия.
В интервью The New York Times он заявил, что его больше всего беспокоит использование искусственного интеллекта для наводнения Интернета фальшивыми фотографиями, видео и текстом до такой степени, что люди больше не «могут знать, что является правдой». больше."
Хинтон также опасался замены человеческого труда технологиями искусственного интеллекта. Он считает, что искусственный интеллект может представлять угрозу для человечества в будущем из-за его способности приобретать неожиданное поведение из огромных объемов данных, которые он анализирует. Хинтон также выразил сожаление по поводу дела всей своей жизни:
Я утешаю себя обычным оправданием: если бы я этого не сделал, это сделал бы кто-то другой.
Доктор Джеффри Хинтон
Отставка доктора Джеффри Хинтона вызвала шок в технологической отрасли, и многие эксперты призывают к усилению контроля и регулирования искусственного интеллекта. Поскольку споры о рисках и преимуществах искусственного интеллекта продолжаются, становится ясно, что вклад таких пионеров, как доктор Джеффри Хинтон, будет иметь решающее значение в формировании будущего этой быстро развивающейся технологии.
Многие технические эксперты предупреждают об опасностях искусственного интеллекта
В последние месяцы регулирующие органы, законодатели и лидеры технологической отрасли выразили обеспокоенность по поводу развития искусственного интеллекта. В марте более 2600 технических руководителей и исследователей подписали открытое письмо с призывом временно приостановить разработку искусственного интеллекта, сославшись на «серьезные риски для общества и человечества».
В апреле 12 законодателей Европейского союза подписали аналогичное письмо, а недавний законопроект ЕС классифицирует инструменты искусственного интеллекта в соответствии с их уровнем риска. Кроме того, Великобритания предоставит 125 миллионов долларов целевой группе по разработке «безопасного ИИ».
Как сообщается, инструменты искусственного интеллекта уже используются для дезинформации, и недавние примеры того, как средства массовой информации обманом публикуют ложные новости. Кроме того, одно немецкое издание использовало искусственный интеллект для фальсификации интервью.
Binance заявила 1 мая, что ее генеральный директор Чанпэн «CZ» Чжао был членом студенческой организации Коммунистической партии Китая dent что было распространено чат-ботом из ChatGPT, о чем свидетельствуют скриншоты чат-бота.
На прошлой неделе группа шутников также обманула несколько СМИ по всему миру, включая Daily Mail и The dent . The Daily Mail опубликовала статью о предполагаемом канадском актере по имени «Святой фон Колуччи», который, как говорят, умер после пластической операции, чтобы сделать его больше похожим на южнокорейскую поп-звезду. Впоследствии Daily Mail удалила статью.
Каковы прогнозируемые опасности ИИ для человечества?
Есть несколько предсказуемых опасностей искусственного интеллекта для человечества, некоторые из которых уже испытаны, а другие могут возникнуть в будущем. Вот некоторые из наиболее опасных опасностей:
1. Смещение рабочих мест: по мере того, как искусственный интеллект становится все более совершенным, существует риск того, что он заменит людей во многих отраслях, что приведет к массовым потерям рабочих мест и экономическому спаду. Илон Маск отметил, что есть работы, которые роботы возьмут на себя и будут выполнять лучше, чем люди
2. Автономное оружие. Разработка автономного оружия, которое может принимать решения о том, кого нацелить и когда атаковать, без вмешательства человека, вызывает серьезную озабоченность. Это оружие потенциально может привести к непреднамеренному ущербу, поскольку оно может выйти из строя или быть взломано.
3. Непредвиденные последствия. По мере усложнения систем искусственного интеллекта возникает риск того, что они могут привести к непредвиденным последствиям, которые могут нанести вред. Например, искусственный интеллект. система, предназначенная для максимизации прибыли компании, может непреднамеренно нанести вред окружающей среде или обществу.
4. Предвзятость и дискриминация: системы искусственного интеллекта беспристрастны ровно настолько, насколько объективны данные, на которых они обучаются, а это означает, что если данные, используемые для их обучения, предвзяты, система искусственного интеллекта также будет предвзятой. Это может иметь серьезные последствия, особенно в таких областях, как уголовное правосудие, где предвзятые системы искусственного интеллекта могут привести к несправедливому обращению с определенными группами.
5. Риски кибербезопасности: по мере того, как системы искусственного интеллекта становятся более совершенными, они также могут становиться более уязвимыми для кибератак. Если система ИИ будет взломана, она потенциально может быть использована для причинения вреда или нарушения работы критически важных систем.
6. Отсутствие прозрачности и подотчетности. Если системы искусственного интеллекта принимают важные решения о жизни людей, например о предоставлении им кредита или освобождении под залог, важно, чтобы эти системы были прозрачными и подотчетными. Однако есть опасения, что некоторые системы искусственного интеллекта могут быть непрозрачными и сложными для понимания или аудита.
7. Экзистенциальные риски. Некоторые эксперты высказывают опасения, что развитие искусственного интеллекта может представлять экзистенциальную угрозу человечеству либо в результате разработки сверхразумного искусственного интеллекта, неподконтрольного человеку, либо в результате использования ИИ в военных или иных разрушительных целях.