ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

Вопросы безопасности станут одними из главных на Сеульском саммите по искусственному интеллекту

КАамир ШейхАамир Шейх
4 минуты чтения,
Вопросы безопасности станут одними из главных на Сеульском саммите по искусственному интеллекту
  • Южная Корея и Великобритания совместно проведут саммит по безопасности искусственного интеллекта в Сеуле 21 и 22 мая.
  • Премьер-министр Великобритании иdent Южной Кореи также уделяют приоритетное внимание инновациям и инклюзивности.
  • Эта конференция является продолжением британской конференции по безопасности ИИ, которая состоялась в Блетчли-Парке в ноябре.

Правительства Южной Кореи и Великобритании на этой неделе на международном саммите по искусственному интеллекту призовут технологические компании к обеспечению контроля за безопасностью искусственного интеллекта.

Эта встреча является продолжением первого в истории глобального саммита по безопасности ИИ, состоявшегося в прошлом году в британском Блетчли-Парке, где ряд правительств выразили обеспокоенность по поводу рисков, связанных с ИИ. Компании, работающие в сфере ИИ, также присутствовали на саммите, поскольку разрабатываемые ими технологии представляют собой подобные риски.

На фоне многочисленных международных попыток установить ограничения для быстро развивающихся технологий, способных произвести революцию во многих аспектах общества, саммит в Сеуле вызвал опасения по поводу возникающих рисков для повседневной жизни. 

«Несмотря на предпринятые позитивные усилия по формированию глобального управления в сфере ИИ, существенные пробелы всё ещё сохраняются»

В ноябре в Великобритании состоялся саммит, собравший исследователей, правительственных чиновников, руководителей технологических компаний и представителей организаций гражданского общества, многие из которых придерживались различных мнений об искусственном интеллекте. Встречи проходили за закрытыми дверями в Блетчли. Наряду с политиками, включая премьер-министра Великобритании Риши Сунака, генеральными директорами OpenAI Сэмом Альтманом и Tesla, на саммите присутствовал Илон Маск и многие другие.

Безопасность будет приоритетом на саммите по искусственному интеллекту

Безопасность вновь станет главным приоритетом на саммите AI Seoul Summit, который начнется во вторник. Правительства Великобритании и Южной Кореи совместно организуют это мероприятие 21-22 мая.

Представители таких известных компаний, занимающихся искусственным интеллектом, как Microsoft, Anthropic, Google DeepMind, создатель ChatGPT OpenAI и французский стартап Mistral, планируют направить компанию.

Премьер-министр Великобритании Риши Сунак и президент Южной Кореиdent Сук Ёль также написали совместную статью, опубликованную в понедельник в INews. Признавая потенциал этой технологии, они выразили желание обеспечить ее безопасность, заявив:

«Вместе мы полны решимости использовать потенциал этой технологии, чтобы изменить мир к лучшему»

Они также подчеркнули, что по мере того, как новые технологии несут новые риски, ИИ также представляет собой угрозу. Они указали на злоупотребление ИИ со стороны недобросовестных лиц, которые намеренно стремятся использовать ИИ в противоправных целях.

Совсем недавно компания OpenAI распустила свою команду по обеспечению безопасности, называемую командой Superalignment, после того, как ее соучредитель Илья Суцкевер и некоторые другие ключевые сотрудники покинули компанию. Это произошло всего за несколько дней до саммита в Сеуле, ведущей мировой компании в области искусственного интеллекта, которая занимается снижением рисков, связанных с ИИ.

Читайте также: На саммите в Блетчли-Парке настоятельно рекомендуется международное сотрудничество для решения проблем, связанных с рисками, вызванными ИИ.

В другом событии, компания Anthropic сегодня опубликовала свой отчет о политике ответственного масштабирования, который, по словам компании, показал хорошие результаты. Однако мы не можем подтвердить эти результаты. Хотя мы не можем комментировать какие-либо из этих событий, они дают пищу для размышлений.

Инновации должны продолжаться

После стремительного взлета популярности ChatGPT вскоре после его запуска в 2022 году, технологические компании по всему миру начали инвестировать миллиарды долларов в создание своих моделей генеративного ИИ. Сунак и Йеол упомянули о быстром темпе инноваций, поскольку новые модели ИИ запускаются ежедневно. Они сказали:

«Правительство может способствовать этим инновациям, инвестируя миллиарды, поддерживая передовые исследования в наших университетах мирового класса и обеспечивая, чтобы мы не чрезмерно регулировали стартапы, которые могут породить следующую большую идею»

Сторонники генеративных моделей искусственного интеллекта назвали эту технологию прорывом, который улучшит жизнь людей и бизнес во всем мире, поскольку она способна создавать текст, фотографии, музыку и даже видео в ответ на простые сигналы.

Некоторые из этих продуктов, привлекших внимание общественности, имеют свои собственные скрытые предубеждения, что вызывает беспокойство. 

Читайте также: Эксперты по ИИ утверждают, что работа с ИИ крайне важна, на Глобальном форуме лидеров FIDIC.

И дело не только в этом; технология, лежащая в основе этих продуктов, называемая большими языковыми моделями (БЯМ), также стала базовой технологией для многих решений в различных секторах. От беспилотных автомобилей до медицинских решений — многие из них полагаются на генеративные БЯМ на основе искусственного интеллекта для своей работы.

По-прежнему звучат тревожные голоса

Многие люди требуют принятия международных правил для контроля за развитием и применением ИИ. Например, нью-йоркское движение под названием Ban ​​the Scan требует прекратить использование распознавания лиц на государственном и частном уровнях. 

Они утверждают, что эти технологии вмешиваются в личную свободу и имеют высокий процент ложных срабатываний. На странице организацииtronFrontier Foundation написано:

«Распознавание лиц представляет угрозу для неприкосновенности частной жизни, расовой справедливости, свободы выражения мнений и информационной безопасности. Распознавание лиц во всех его формах, включая сканирование лиц и tracв реальном времени, угрожает гражданским свободам и неприкосновенности частной жизни»

Они не единственные. Правозащитники, правительства и критики предупреждают, что ИИ может быть использован не по назначению различными способами. Например, негосударственные субъекты могут использовать его для влияния на избирателей с помощью вымышленных новостных сообщений или так называемых «дипфейк» — изображений и видео избранных должностных лиц. Еще одна растущая проблема — сообщения о том, что государства поддерживают противоборствующие элементы в своих интересах.

«Мы также предпримем следующие шаги по формированию глобальных стандартов, которые позволят избежать гонки на понижение»

В статье, написанной двумя авторами, упоминалось вышеупомянутое утверждение и подчеркивалось, что обсуждение международных норм в области ИИ на более открытом форуме было бы полезным. В то же время некоторые южнокорейские правозащитные организации раскритиковали организаторов за то, что они не пригласили достаточное количество развивающихся стран.

На этой неделе во Франции также пройдет конференция «Viva Technology», организованная при поддержке LVMH, крупнейшей в мире группы компаний, занимающихся производством предметов роскоши. В течение последнего года Франция пыталась привлечь стартапы вtracискусственного интеллекта, чтобы позиционировать себя как европейского лидера в этой сфере.


Репортаж Аамира Шейха для издания Cryptopolitan

Не просто читайте новости о криптовалютах. Разберитесь в них. Подпишитесь на нашу рассылку. Это бесплатно.

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС