ПОСЛЕДНИЕ НОВОСТИ
ПОДОБРАНО ДЛЯ ВАС
Еженедельно
ОСТАВАЙТЕСЬ НА ВЕРШИНЕ

Лучшие аналитические материалы о криптовалютах прямо в вашу электронную почту.

OpenAI уполномочила группу по безопасности воздерживаться от разработки высокорискованных решений в области искусственного интеллекта

Автор:Аамир ШейхАамир Шейх
2 минуты чтения,
Разработка высокорискованных систем искусственного интеллекта
  • OpenAI представляет план обеспечения безопасности, предоставляющий совету директоров право вето на разработку высокорискованных проектов в области ИИ.
  • В рамках концепции готовности описываются процессы оценки и смягчения катастрофических рисков, связанных с мощными моделями искусственного интеллекта.
  • OpenAI создает группы по безопасности, супервыравниванию и готовности для мониторинга и оценки различных категорий рисков, связанных с ИИ.

В рамках инициативы по обеспечению безопасности компания OpenAI представила новую программу, которая наделяет совет директоров полномочиями отменять решения генерального директора Сэма Альтмана, если они сочтут риски, связанные с разработкой ИИ, слишком высокими. Эта комплексная стратегия, получившая название «Рамочная программа готовности», направлена ​​на устранение существующих пробелов в изучении рисков, связанных с передовыми технологиями ИИ, и систематизацию протоколов безопасности. Программа описывает процессы OpenAI по мониторингу, оценке, прогнозированию и защите от катастрофических рисков, создаваемых все более мощными моделями ИИ.

Структура для разработки высокорискованных решений в области ИИ

В рамках этой смелой инициативы OpenAI создаст специализированные команды для контроля различных аспектов рисков, связанных с разработкой ИИ. Команды по системам безопасности сосредоточатся на потенциальных злоупотреблениях и рисках, связанных с существующими моделями ИИ, такими как ChatGPT. Одновременно команда по обеспечению готовности будет тщательно изучать перспективные модели, а специальная команда по супер-оптимизации будет внимательно следить за разработкой сверхинтеллектуальных моделей. Все эти команды будут работать под руководством совета директоров.

По мере того, как OpenAI движется к созданию ИИ, превосходящего человеческий интеллект, компания подчеркивает необходимость предвидеть будущие вызовы. Новые модели будут подвергаться тщательному тестированию, доводя себя «до предела», и впоследствии оцениваться по четырем категориям риска: кибербезопасность, убеждение (ложь и дезинформация), автономность модели (самостоятельное принятие решений) и ХБРЯ (химические, биологические, радиологические и ядерные угрозы). Каждой категории будет присвоен балл риска — низкий, средний, высокий или критический — а затем оценка после устранения угроз. Развертывание будет продолжено, если риск средний или ниже, продолжится с мерами предосторожности, если он высокий, и приостановлено, если будет признано критическим. OpenAI также обязуется применять меры подотчетности, привлекаяdent третьих лиц для аудита в случае возникновения проблем.

Подход OpenAI к обеспечению безопасности ИИ и его будущие последствия

OpenAI уделяет первостепенное внимание развитию широкого сотрудничества не только с внешними партнерами, но и внутри сложной сети своих внутренних команд, в частности, включая отдел систем безопасности. Эта синергия сотрудничества активно направляется на тщательный мониторинг и меры по предотвращению реальных случаев неправомерного использования. Расширяя сферу этого сотрудничества, OpenAI органично распространяет свои совместные усилия на область супервыравнивания, где основное внимание стратегически уделяется тщательномуdentи последующему устранению возникающих рисков, связанных с несоответствием.

В своем непоколебимом стремлении расширять границы знаний OpenAI является первопроходцем в освоении новых направлений исследований. Особое внимание в этом неустанном стремлении к инновациям уделяется детальному изучению тонких динамических процессов, управляющих эволюцией рисков в сочетании с экспоненциальным масштабированием моделей. Главная цель этого научного исследования весьма амбициозна — прогнозировать риски задолго до их возникновения. Эта амбициозная цель подкрепляется стратегическим использованием знаний, полученных в результате достижений прошлых лет, в частности, тех, которые основаны на соблюдении законов масштабирования.

По мере того как OpenAI делает монументальный шаг к обеспечению безопасности ИИ, остаются вопросы о последствиях предоставления совету директоров права вето на решения генерального директора. Удастся ли этому решению найти правильный баланс между инновациями и осторожностью? Насколько эффективной окажется Рамочная программа готовности к реагированию на риски, связанные с разработкой передовых моделей ИИ, и как она их смягчит? Только время покажет, позиционирует ли этот смелый шаг OpenAI как пионера в ответственной разработке ИИ или же он вызовет дискуссии о взаимосвязи полномочий и инноваций в постоянно развивающейся области искусственного интеллекта.

Если вы это читаете, значит, вы уже впереди. Оставайтесь на шаг впереди, подписавшись на нашу рассылку.

Поделитесь этой статьей

Предупреждение. Предоставленная информация не является торговой рекомендацией. Cryptopolitanнастоятельно не несет ответственности за любые инвестиции, сделанные на основе информации, представленной на этой странице. Мыtrondentdentdentdentdentdentdentdent и/или проконсультироваться с квалифицированным специалистом, прежде чем принимать какие-либо инвестиционные решения.

ЕЩЕ… НОВОСТИ
ЭКСПРЕСС- ПО ГЛУБОКОЙ
КУРС