Nel Regno Unito, un'azienda su tre si preoccupa della sicurezza dei propri dati quando utilizza i Large Language Models (LLM), perché si sono evoluti da assistenti che rispondono a comandi o domande a sistemident che agiscono senza un costante intervento umano.
Di conseguenza, queste organizzazioni esitano a integrare pienamente gli agenti di intelligenza artificiale nei loro sistemi operativi perché temono di perdere il controllo dei propri dati e della propria sicurezza a favore di macchine in grado di "pensare autonomamente".
Il governo britannico sta prendendo provvedimenti per affrontare queste sfide. Il ministro dell'Ufficio di Gabinetto, Pat McFadden, ha annunciato la declassificazione di una valutazione dell'intelligence che indica come l'intelligenza artificiale intensificherà le minacce informatiche nei prossimi anni.
Nel 2024, il NCSC ha ricevuto quasi 2.000 segnalazioni di attacchi informatici, di cui quasi 90 ritenuti "significativi" e 12 "al massimo della gravità". Si tratta di un numero di attacchi gravi tre volte superiore rispetto all'anno precedente.
Le aziende del Regno Unito sollevano dubbi sulla sicurezza dei dati negli LLM
Le aziende nel Regno Unito devono rispettare rigide normative che tutelano i dati personali e ne prevengono l'uso improprio, come il Data Protection Act e il Regolamento generale sulla protezione dei dati (GDPR) dell'UE.
Le aziende che violano queste leggi rischiano azioni legali e danni alla propria reputazione, quindi stanno riconsiderando le loro strategie di LLM. L'intelligenza artificiale potrebbe rivelare informazioni private o generare risultati fuorvianti senza un'attenta supervisione umana o un'adeguata sollecitazione.
Inizialmente, strumenti di intelligenza artificiale come i chatbot fornivano risposte fisse, mentre i termostati intelligenti si limitavano a modificare la temperatura seguendo semplici regole, senza riflettere o apprendere da nuovi dati, azioni precedenti o risultati delle proprie decisioni. Tuttavia, oggi gli agenti di intelligenza artificiale utilizzano gli LLM per apprendere dai dati, modificare le proprie azioni in base a nuove informazioni e risolvere diversi problemi ragionando come un essere umano.
Ma questa è solo una frazione di una questione molto più ampia, poiché le persone possono anche chiedere all'agente di gestire un compito, che lo suddividerà in attività più piccole, affrontandole singolarmente e valutandone poi i risultati. Inoltre, alcuni agenti possono collaborare per gestire un compito complesso, in cui uno di loro lavora sul lavoro mentre l'altro ne controlla i risultati per migliorarne l'esito.
Sebbene questa crescita aiuti le aziende ad automatizzare le operazioni e a ridurre il tempo che i team umani avrebbero impiegato, rappresenta anche una minaccia, perché più decisioni questi agenti prendono autonomamente, più diventa difficile per noi comprendere, prevedere o controllare appieno ciò che stanno facendo. Allo stesso modo, le conseguenze dei loro errori possono aumentare esponenzialmente, perché questi agenti di intelligenza artificiale agiscono senza fermarsi a chiedere l'intervento umano.
Le aziende adottano gli agenti di intelligenza artificiale con cautela in tutti i reparti
Molte aziende nel Regno Unito utilizzano agenti di intelligenza artificiale nelle loro operazioni quotidiane, con reparti come il servizio clienti, le risorse umane (HR) e il marketing che testano lentamente gli strumenti e li monitorano attentamente.
Un buon esempio aziendale è Pets at Home, che ha creato un agente di intelligenza artificiale per il suo personale veterinario, in modo da fornire risposte rapide e supporto durante i controlli degli animali domestici, dimostrando quanto gli agenti di intelligenza artificiale siano utili anche per piccoli ruoli in lavori reali.
Attualmente, la maggior parte dei sistemi di intelligenza artificiale (IA) agentiva necessita di personale che li guidi, ne controlli il funzionamento e corregga gli errori, perché non sono pronti a sostituire completamente gli esseri umani senza supervisione. Tuttavia, in futuro le aziende potrebbero dover prendere decisioni difficili che consentano loro di integrare agenti di IA nei sistemi, mantenendone al contempo il controllo.

