Il colosso tecnologico Apple Inc., con una mossa coraggiosa, ha sospeso l'utilizzo del chatbot di intelligenza artificiale di OpenAI, ChatGPT, in tutte le sue attività. Questa decisione arriva in un momento in cui aumentano le preoccupazioni per la potenziale compromissione di dati aziendali sensibili.
Cautela interna in Apple
In una direttiva rilasciata ai dipendenti, Apple ha vietato l'uso di ChatGPT , supportato dal rivale del settore Microsoft, e di utilità di intelligenza artificiale comparabili.
Questo embargo è stato imposto durante un periodo di sviluppo della tecnologia di intelligenza artificiale da parte di Apple, a dimostrazione di un'attenzione sempre maggiore all'innovazione interna e alla sicurezza.
I timori dell'azienda ruotano attorno alla possibilità che i dipendenti possano inavvertitamente rivelare informazioni aziendali riservate attraverso le loro interazioni con questi sistemi di intelligenza artificiale.
In particolare, Copilot, lo strumento di intelligenza artificiale di GitHub di proprietà di Microsoft che aiuta nell'automazione del codice software, è stato anch'esso sottoposto a restrizioni all'interno delle mura di Apple.
Questa notizia di divieto interno segue da vicino il lancio di ChatGPT su iOS sull'App Store di Apple, avvenuto solo pochi giorni prima. Questa attesissima app è attualmente accessibile agli utenti iPhone e iPad negli Stati Uniti e prevede di estendere la sua portata ad altre regioni nel prossimo futuro.
La crescente tendenza alle restrizioni degli strumenti di intelligenza artificiale
Apple non è l'unica a condividere questa posizione: grandi aziende in tutto il mondo hanno iniziato a limitare l'utilizzo interno di chatbot basati sull'intelligenza artificiale come ChatGPT.
Ad esempio, il gigantetronSamsung ha inviato un promemoria ai suoi dipendenti all'inizio di maggio, vietando l'uso di utilità di intelligenza artificiale generativa dopo uno sfortunatodent che ha coinvolto il caricamento di codice sensibile sulla piattaforma.
Allo stesso modo, importanti istituzioni finanziarie come JPMorgan, Bank of America, Goldman Sachs e Citigroup hanno implementato misure simili, vietando ai propri dipendenti di utilizzare questi strumenti di intelligenza artificiale.
È importante notare che molte di queste aziende, pur limitando le utility di intelligenza artificiale di terze parti, stanno sviluppando le proprie applicazioni personalizzate.
Rischi e opportunità nell'utilizzo dell'IA
La preoccupazione che circonda strumenti di intelligenza artificiale come ChatGPT e Copilot di GitHub deriva dalle loro metodologie di gestione dei dati, con potenziali rischi di compromettere codice proprietario o altri datident.
Il rischio è aggravato dal fatto che queste piattaforme sono di proprietà o finanziate da concorrenti, come Microsoft. Nonostante ciò, molte aziende stanno adottando la potenza dell'intelligenza artificiale nei loro flussi di lavoro.
Infatti, Goldman Sachs ha reso noto il suo utilizzo di strumenti di intelligenza artificiale generativa per supportare la scrittura e il test del codice software. Analogamente, la società di consulenza gestionale Bain & Company ha rivelato l'intenzione di integrare gli strumenti generativi di OpenAI nei propri sistemi di gestione.
Ciò evidenzia la duplice natura dell'intelligenza artificiale, che offre notevoli efficienze e risparmi sui costi, ma richiede anche rigorose misure di sicurezza.
La limitazione all'uso di strumenti di intelligenza artificiale da parte di alcune aziende non deriva necessariamente da preoccupazioni più ampie sull'intelligenza artificiale, ma piuttosto dal modo in cui i fornitori di piattaforme di intelligenza artificiale di terze parti, come OpenAI, Google e Microsoft, gestiscono i dati proprietari condivisi su questi servizi.
Secondo un rapporto, la recente decisione di Apple rientra in un più ampio cambiamento strategico volto a creare i propri strumenti di intelligenza artificiale, uno sviluppo da tenere d'occhio nel panorama competitivo del settore.
Apple vieta l'uso di ChatGPT ai dipendenti per timore di perdite di dati