Il colosso tecnologico Apple Inc., con una mossa coraggiosa, ha interrotto l’uso del chatbot AI di OpenAI, ChatGPT, nelle sue operazioni. Questa decisione arriva nel contesto delle crescenti preoccupazioni sulla potenziale compromissione dei dati aziendali sensibili.
Cautela interna ad Apple
In una direttiva rilasciata ai dipendenti, Apple ha vietato l’uso di ChatGPT , sostenuto dal rivale del settore Microsoft, e di utility di intelligenza artificiale comparabili.
Questo embargo è stato applicato durante un periodo di sviluppo della tecnologia AI da parte di Apple, indicando un’attenzione crescente all’innovazione interna e alla sicurezza.
Le preoccupazioni dell'azienda ruotano attorno alla possibilità che i dipendenti espongano inavvertitamente informazioni aziendali proprietarie attraverso le loro interazioni con questi sistemi di intelligenza artificiale.
In particolare, anche Copilot, di proprietà di Microsoft, lo strumento AI di GitHub che aiuta nell’automazione del codice software, è stato posto sotto restrizione all’interno delle mura di Apple.
Questa notizia del divieto interno segue da vicino il lancio di ChatGPT su iOS nell'app store di Apple, solo pochi giorni prima. Questa app attesissima è attualmente accessibile agli utenti iPhone e iPad negli Stati Uniti e prevede di ampliare la sua portata ad altre regioni nel prossimo futuro.
La tendenza crescente alle restrizioni sugli strumenti di intelligenza artificiale
Apple non è sola nella sua posizione, poiché le principali aziende di tutto il mondo hanno iniziato a ridurre l’uso interno di chatbot IA come ChatGPT.
Ad esempio, all’inizio di maggio il gigante tron Samsung ha inviato una nota ai suoi dipendenti vietando l’uso di strumenti di intelligenza artificiale generativa dopo uno sfortunato dent che ha comportato il caricamento di codice sensibile sulla piattaforma.
Allo stesso modo, importanti istituzioni finanziarie come JPMorgan, Bank of America, Goldman Sachs e Citigroup hanno implementato misure simili, vietando ai propri dipendenti di utilizzare questi strumenti di intelligenza artificiale.
È importante notare che molte di queste aziende, pur limitando le utilità di intelligenza artificiale di terze parti, sono in procinto di sviluppare le proprie applicazioni su misura.
Rischi e opportunità nell’utilizzo dell’intelligenza artificiale
L'apprensione che circonda gli strumenti di intelligenza artificiale come ChatGPT e Copilot di GitHub ha origine dalle loro metodologie di gestione dei dati, con potenziali rischi di compromettere il codice proprietario o altri dati dent .
Il rischio è accresciuto dal fatto che queste piattaforme sono di proprietà o supportate finanziariamente da concorrenti, come Microsoft. Nonostante ciò, molte aziende stanno abbracciando il potere dell’intelligenza artificiale nei propri flussi di lavoro.
In effetti, Goldman Sachs ha rivelato il proprio utilizzo di strumenti di intelligenza artificiale generativa per assistere nella scrittura e nel test del codice software. Allo stesso modo, la società di consulenza gestionale Bain & Company ha rivelato piani per integrare gli strumenti generativi di OpenAI nei propri sistemi di gestione.
Ciò evidenzia la duplice natura dell’intelligenza artificiale, che offre notevoli efficienze e risparmi sui costi, ma richiede rigorose misure di sicurezza.
La limitazione all’uso degli strumenti di intelligenza artificiale da parte di alcune aziende non deriva necessariamente da preoccupazioni più ampie sull’intelligenza artificiale, ma piuttosto dal modo in cui i fornitori di piattaforme di intelligenza artificiale di terze parti, come OpenAI, Google e Microsoft, gestiscono i dati proprietari condivisi su questi servizi.
Secondo un rapporto, la recente decisione di Apple fa parte di un più ampio cambiamento strategico verso la creazione dei propri strumenti di intelligenza artificiale, uno sviluppo da tenere d’occhio nel panorama competitivo del settore.