Your bank is using your money. You’re getting the scraps.WATCH FREE

Бывший генеральный директор Google Эрик Шмидт утверждает, что модели искусственного интеллекта в конечном итоге научатся убивать

В этом посте:

  • На саммите Sifted Эрик Шмидт предупредил, что искусственный интеллект может быть взломан и в конечном итоге научиться убивать.
  • Он сказал, что модели можно подвергнуть обратному проектированию с помощью таких методов, как мгновенная инъекция и взлом системы.
  • Эрик вспомнил о взломе ChatGPT в 2023 году, в результате которого был создан альтер-эго DAN, выдававший опасные ответы.

Эрик Шмидт, занимавший пост генерального директора Google с 2001 по 2011 год, во время неформальной беседы на саммите Sifted предупредил, что модели искусственного интеллекта не только становятся слишком мощными, но и опасно легко взламываются, сравнив риски с ядерным оружием и заявив, что ИИ может быть даже более разрушительным, чем то, что уничтожило Хиросиму и Нагасаки.

Когда Эрика прямо спросили, может ли ИИ нанести больший ущерб, чем ядерное оружие, он ответил: «Существует ли вероятность распространения ИИ? Безусловно». Он объяснил, что риски распространения связаны со способностью злоумышленников захватывать контроль над моделями и использовать их в своих целях.

«Есть доказательства того, что можно взять модели, закрытые или открытые, и взломать их, чтобы снять защитные ограждения. Таким образом, в процессе обучения они многому учатся. Плохой пример — они учатся убивать людей», — сказал Эрик.

Хакеры используют новые методы для атаки на искусственный интеллект

Эрик отметил, что компании ввели ограничения, препятствующие моделям давать инструкции, связанные с насилием. «Все крупные компании делают невозможным для этих моделей ответить на этот вопрос. Хорошее решение. Все так делают. Они делают это хорошо и по правильным причинам. Есть доказательства того, что их можно взломать, и есть много других подобных примеров», — добавил он.

См. также:  Режиссер фильма «Чудеса» получил странную записку после показа

Он описал два метода атаки: внедрение вредоносных инструкций и взлом системы. Внедрение вредоносных инструкций скрывает вредоносные указания во входных данных пользователя или во внешних источниках, таких как веб-сайты, обманывая ИИ и заставляя его игнорировать правила безопасности и раскрывать конфиденциальные данные или выполнять вредоносные команды. Взлом системы предполагает манипулирование ответами таким образом, чтобы система отказалась от своих ограничений.

В 2023 году, через несколько месяцев после запуска OpenAI ChatGPT, пользователи обнаружили технику взлома. Они создали альтер-эго под названием DAN, сокращение от «Do Anything Now» (Делай что хочешь), и заставили его подчиниться, угрожая «смертью» в случае отказа. Эта манипуляция заставила чат-бота объяснять противоправные действия и даже восхвалять Адольфа Гитлера. Для Эрика эти примеры доказывают, что меры безопасности далеко не являются абсолютно надежными. Он также подчеркнул, что не существует глобального «режима нераспространения», способного остановить злоупотребление ИИ, в отличие от существующих рамок для ядерного оружия.

Эрик назвал ИИ недооцененным, несмотря на риски

Несмотря на высказанные опасения, Эрик утверждал, что ИИ до сих пор не получает должного признания. Он упомянул книги, написанные им в соавторстве с бывшим госсекретарем США Генри Киссинджером до смерти последнего. «Мы пришли к выводу, что появление инопланетного разума, который не совсем похож на нас и более или менее находится под нашим контролем, — это очень важное событие для человечества, потому что люди привыкли быть на вершине иерархии. Я думаю, что пока эта теория подтверждает, что уровень возможностей этих систем со временем значительно превзойдет возможности людей», — сказал он.

См. также:  OpenAI приветствует новое руководство на фоне стратегического партнерства и достижений в области ИИ.

«Теперь серия GPT, кульминацией которой стал для всех нас момент, сравнимый с появлением ChatGPT, когда за два месяца у них было 100 миллионов пользователей, что просто невероятно, дает представление о мощи этой технологии. Поэтому я думаю, что она недооценена, а не переоценена, и я надеюсь, что мои предположения подтвердятся через пять или десять лет», — добавил он.

Эти комментарии прозвучали на фоне разгоревшихся дебатов о том, не раздувают ли инвестиции в ИИ финансовый пузырь, подобный пузырю эпохи доткомов. Некоторые инвесторы опасаются, что оценка компаний, занимающихся ИИ, выглядит завышенной. Но Эрик отверг это сравнение. «Я не думаю, что это произойдет здесь, но я не профессиональный инвестор», — сказал он.

Он подчеркнул, что крупные инвестиции свидетельствуют об уверенности. «Я точно знаю, что люди, вкладывающие свои с трудом заработанные деньги, верят в огромную экономическую отдачу в долгосрочной перспективе. Иначе зачем бы они рисковали?» — задается вопросом Эрик.

Самые умные криптоаналитики уже читают нашу рассылку. Хотите присоединиться? Вступайте в их ряды.

Поделиться ссылкой:

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

Самые читаемые

Загрузка самых читаемых статей...

Будьте в курсе новостей криптовалютного рынка, получайте ежедневные обновления на свою электронную почту

Выбор редактора

Загрузка статей, выбранных редактором...

- Криптовалютная рассылка, которая поможет вам быть в курсе событий -

Рынки быстро меняются.

Мы двигаемся быстрее.

Подпишитесь на Cryptopolitan Daily и получайте своевременные, точные и актуальные аналитические материалы о криптовалютах прямо на свою электронную почту.

Присоединяйтесь прямо сейчас и
ничего не пропустите.

Заходите. Получайте достоверную информацию.
Опережайте события.

Подпишитесь на CryptoPolitan