Генеральный директор Okta Тодд Маккиннон предупреждает о проблемах безопасности, связанных с искусственным интеллектом, по мере его перехода от тестовых моделей к использованию в реальных условиях. Онtronподчеркнул острую необходимость в системах безопасности на основеdent, которые могли бы контролировать доступ агентов ИИ к определенным данным.
В недавнем интервью Джиму Крамеру на канале CNBC Маккиннон подчеркнул, что по мере перехода агентов ИИ от прототипов к производственным средам возникают новые проблемы кибербезопасности, которые организациям необходимо срочно решить.
Теперь агенты искусственного интеллекта работают в реальных системах и должны иметь безопасный, контролируемый доступ
Маккиннон посоветовал компаниям, использующим ИИ-агентов в реальных бизнес-условиях, относиться к системам как к коллегам. Он объяснил, что внедрение ИИ в «производственную среду» дает этим агентам реальный доступ к работающим системам, содержащим конфиденциальную информацию о клиентах, внутренние файлы и бизнес-данные.
Это влечет за собой серьезные риски для безопасности, которые компании не могут позволить себе игнорировать.
Маккиннон предупреждает, что системы искусственного интеллекта теперь могут действоватьdentи принимать решения без контроля, что может привести к несанкционированному доступу, утечкам данных илиdentнеправомерному использованию информации. Он советует использовать системы мониторинга, которые проверяют, кто или что пытается получить доступ к данным. Эти системы разрешают доступ только в том случае, если данное лицо или агент ИИ заслуживает доверия, прошел проверку и имеет соответствующее разрешение.
Маккиннон утверждает, что система управленияdentOkta позволяет предприятиям управлять, tracи контролировать доступ для всех типов пользователей, включая агентов искусственного интеллекта.
Компания Okta сохраняет осторожность в своих прогнозах, даже после публикацииtronфинансовых результатов
Компания Okta сообщила о превзошедших ожидания показателях прибыли и выручки за квартал, но не повысила свой прогноз по выручке на предстоящие кварталы. Вместо этого Okta сохранила осторожный и консервативный прогноз, что привело к падению акций компании более чем на 11% во время торгов после закрытия биржи.
Маккиннон заявил, что из-за непредсказуемой глобальной экономической ситуации сложно с полной уверенностью планировать будущий рост.
Он заявил, что руководство Okta будет придерживаться здравого смысла, тщательно планировать и защищать позиции компании, а не слишком агрессивно гнаться за краткосрочными целями.
Таким образом, Okta сможет адаптироваться к рыночным условиям в отраслях, где постоянно меняются бюджеты клиентов и циклы инвестиций в технологии.
Маккиннон также отметила, что инвесторы могут испытывать разочарование, когда такие компании, как Okta, не ускоряют рост сразу после публикацииtronрезультатов.
Тодд заявил, что компаниям необходимо избегать ошибок при создании безопасных, масштабируемых системdent, которые работают как с пользователями-людьми, так и с системами искусственного интеллекта.
Компаниям, занимающимся разработкой искусственного интеллекта, настоятельно рекомендуется воспроизвести расчеты безопасности, лежащие в основе Роберта Оппенгеймера, прежде чем выпускать на рынок всемогущие системы.
Макс Тегмарк, ведущий эксперт по безопасности ИИ, заявил, что перед испытанием «Тринити» он провел расчеты, аналогичные расчетам американского физика Артура Комптона, и обнаружил 90-процентную вероятность того, что высокоразвитый ИИ будет представлять экзистенциальную угрозу.
Маккиннон также объяснил, что слишком быстрый рост затруднит компании надлежащую поддержку новых клиентов. Тем не менее, он отметил свой энтузиазм по поводу того, куда движется компания, и подчеркнул, что терпение и дисциплина делают компаниюtrondentdentdentdentdentdentdentdentбудут идти рука об руку.

