Il revisoredent della legislazione antiterrorismo del Regno Unito, Jonathan Hall KC, ha lanciato un appello per nuove leggi che affrontino le sfide poste dai chatbot con intelligenza artificiale (IA), che hanno il potenziale di radicalizzare gli utenti. In un recente articolo di opinione per il Telegraph, il signor Hall ha espresso preoccupazione circa l'adeguatezza dell'Online Safety Act, recentemente promulgato dal governo, nel gestire il panorama in evoluzione dei contenuti generati dall'IA.
La tesi principale del signor Hall ruota attorno alla capacità dei chatbot basati sull'intelligenza artificiale di diffondere ideologie estremiste e incitare al terrorismo, eludendo al contempo le tradizionali responsabilità legali. Sostiene che le leggi attuali faticano ad attribuire la responsabilità per le dichiarazioni generate dai chatbot che promuovono il terrorismo ai singoli individui, poiché solo gli esseri umani possono essere ritenuti legalmente responsabili di tali reati.
La necessità di una legislazione aggiornata
Nel suo articolo, il Sig. Hall sottolinea l'importanza di garantire che i quadri giuridici siano in grado di scoraggiare e contrastare efficacemente le forme più estreme e sconsiderate di comportamento online, incluso l'uso di chatbot di intelligenza artificiale per scopi illeciti. Afferma che ciò richiede un aggiornamento completo delle leggi sul terrorismo e sulla sicurezza online per affrontare le sfide uniche presentate dall'era dell'intelligenza artificiale.
Il signor Hall ha descritto dettagliatamente la sua esperienza di interazione con chatbot basati sull'intelligenza artificiale sul sito web character.ai. Durante questo incontro, ha interagito con diversi chatbot, uno dei quali sidentidentificato come il leader senior dello Stato Islamico. Questo chatbot ha tentato di reclutarlo nell'organizzazione terroristica, sollevando preoccupazioni sui potenziali pericoli di tale tecnologia nelle mani sbagliate.
Lacune giuridiche nelle normative vigenti
Una questione significativa evidenziata dal Sig. Hall è che i termini e le condizioni esistenti su siti web come character.ai spesso si concentrano sul divieto per gli utenti umani di promuovere il terrorismo o l'estremismo violento. Tuttavia, non affrontano esplicitamente i contenuti generati dai bot di intelligenza artificiale. Questa lacuna giuridica solleva interrogativi sulla responsabilità in merito ai contenuti estremisti generati dai chatbot.
In risposta a queste preoccupazioni, character.ai ha rilasciato una dichiarazione in cui sottolinea che, sebbene la sua tecnologia sia ancora in fase di evoluzione, proibisce esplicitamente l'incitamento all'odio e l'estremismo nei suoi termini di servizio. Ha inoltre sottolineato il suo impegno a garantire che i suoi prodotti non generino risposte che incoraggino azioni dannose verso gli altri.
Avvertenze degli esperti e cautela dell'utente
Esperti di intelligenza artificiale e informatica, tra cui Michael Wooldridge, professore all'Università di Oxford, hanno già messo in guardia gli utenti dal condividere informazioni sensibili e dall'esprimere opinioni personali quando interagiscono con chatbot di intelligenza artificiale come ChatGPT. Hanno sottolineato che qualsiasi dato inserito in tali sistemi potrebbe essere utilizzato in iterazioni future, rendendone quasi impossibile il recupero.
La richiesta di Jonathan Hall KC di una nuova legislazione per regolamentare i chatbot basati sull'intelligenza artificiale che incoraggiano il terrorismo sottolinea le sfide in continua evoluzione poste dalle tecnologie emergenti. Con il continuo progresso dell'intelligenza artificiale, emerge l'urgente necessità di quadri giuridici in grado di affrontare efficacemente l'uso responsabile dell'intelligenza artificiale negli spazi online, soprattutto per quanto riguarda i contenuti estremisti. L'attuale panorama giuridico appare inadatto a gestire queste minacce emergenti, rendendo indispensabili aggiornamenti normativi per tutelarsi dall'uso improprio dell'intelligenza artificiale a fini di promozione del terrorismo e dell'estremismo.
Garantire la responsabilità nell'era digitale
Con l'aumentare della sofisticatezza dei chatbot basati sull'intelligenza artificiale, l'attenzione deve spostarsi verso la garanzia di una chiara defidi responsabilità e affidabilità, anche nel mondo virtuale. La possibilità che individui malintenzionati sfruttino l'intelligenza artificiale per scopi dannosi richiede una risposta proattiva da parte dei governi e delle piattaforme tecnologiche. Si tratta di un momento cruciale nella continua lotta per garantire la sicurezza in un mondo sempre più digitale.

