Il CEO di Okta, Todd McKinnon, mette in guardia dai problemi di sicurezza dell'intelligenza artificiale, che sta passando dai modelli di provatronin situazioni reali. Ha sottolineato con forza l'urgente necessità di sistemi di sicurezza basatidentin grado di controllare a cosa possono accedere gli agenti di intelligenza artificiale.
In una recente intervista con Jim Cramer della CNBC, McKinnon ha sottolineato che, con il passaggio degli agenti di intelligenza artificiale dai prototipi agli ambienti di produzione, emergono nuove sfide per la sicurezza informatica che le organizzazioni devono affrontare con urgenza.
Gli agenti di intelligenza artificiale ora lavorano in sistemi reali e devono avere un accesso sicuro e controllato
McKinnon ha consigliato alle aziende che utilizzano agenti di intelligenza artificiale in contesti aziendali reali di trattare questi sistemi come colleghi. Spiega che l'introduzione dell'IA in "produzione" consente a questi agenti di accedere realmente a sistemi operativi che contengono informazioni private sui clienti, file interni e dati aziendali.
Ciò comporta grandi rischi per la sicurezza che le aziende non possono permettersi di ignorare.
McKinnon avverte che i sistemi di intelligenza artificiale possono ora agire in mododente prendere decisioni non supervisionate che potrebbero portare ad accessi non autorizzati, fughe di dati o usodentdelle informazioni. Egli sostiene che l'unico modo per gestire questi rischi in modo sicuro è utilizzare sistemi di monitoraggio che controllano chi o cosa sta tentando di accedere ai dati. Questi sistemi consentono l'accesso solo se l'individuo o l'agente di intelligenza artificiale è attendibile, verificato e autorizzato.
McKinnon afferma che la gestionedentdi Okta consente alle aziende di gestire, trace controllare l'accesso per tutti i tipi di utenti, compresi gli agenti di intelligenza artificiale.
Okta rimane cauta con le sue previsioni anche dopo aver riportatotronguadagni
Okta ha riportato utili e ricavi migliori del previsto per il trimestre, ma non ha alzato le sue previsioni di fatturato per i trimestri successivi. Al contrario, Okta ha mantenuto un outlook cauto e conservativo, che ha fatto crollare il titolo di oltre l'11% durante le contrattazioni after-hours.
McKinnon ha affermato che è difficile pianificare la crescita futura con piena fiducia a causa dell'imprevedibilità del clima economico globale.
Ha affermato che la dirigenza di Okta rimarrà con i piedi per terra, pianificherà attentamente e proteggerà la posizione dell'azienda, anziché perseguire obiettivi a breve termine in modo troppo aggressivo.
In questo modo, Okta si adatterà quando le condizioni di mercato nei settori in cui i budget dei clienti e i cicli di investimento tecnologico continuano a cambiare.
McKinnon ha anche sottolineato che gli investitori potrebbero sentirsi frustrati quando aziende come Okta non accelerano immediatamente la crescita dopo aver riportato risultatitron.
Todd ha affermato che le aziende devono evitare errori quando creano sistemi didentsicuri e scalabili che funzionino sia con gli utenti umani che con i sistemi di intelligenza artificiale.
Le aziende che si occupano di intelligenza artificiale sono state esortate a replicare i calcoli di sicurezza alla base del di Robert Oppenheimer prima di rilasciare sistemi onnipotenti.
Max Tegmark, una delle voci più autorevoli nel campo della sicurezza dell'intelligenza artificiale, ha affermato di aver effettuato calcoli simili a quelli del fisico statunitense Arthur Compton prima del test Trinity e di aver scoperto una probabilità del 90% che un'intelligenza artificiale altamente avanzata avrebbe rappresentato una minaccia esistenziale.
McKinnon ha inoltre spiegato che forzare una crescita troppo rapida renderà difficile per un'azienda supportare adeguatamente i nuovi clienti. Ciononostante, si è detto entusiasta della direzione intrapresa dall'azienda e ha sottolineato che pazienza e disciplina sono fondamentali per la sua soliditàtrondentdentdentdentdentdentdentdentdi pari passo.

