Un ex parlamentare britannico ha rivelato che l'approccio legislativo del Regno Unito non ridurrà i danni causati da Grok. Questo dopo che i ministri britannici hanno risposto alle critiche rivolte a Grok, il chatbot di intelligenza artificiale di Elon Musk,tracl'iter legislativo per vietare la generazione di immagini intime non consensuali.
Secondo l'ex parlamentare britannica, il Paese sta adottando un approccio "alla ricerca della talpa" nella regolamentazione delle grandi aziende tecnologiche. Sebbene la legge abbia riscosso un crescente sostegno, gli esperti hanno anche avvertito che le modifiche potrebbero non essere sufficienti a limitare i danni causati dai chatbot basati sull'intelligenza artificiale generativa. "Sembra che siamo in ritardo, perché lo siamo", afferma Harriet Harman, ex vice leader del Partito Laburista. "E sembra che stiamo correndo per recuperare, perché lo stiamo facendo. E sembra che stiamo adottando un approccio disorganizzato, perché lo stiamo facendo".
Un ex legislatore afferma che il Regno Unito è indietro nella regolamentazione dell'intelligenza artificiale
Secondo l'ex parlamentare britannico, ciò include il fatto che il paese non abbia chiarito cosa la legge debba classificare come immagine "intima". Sebbene negli Stati Uniti i legislatori l'abbiano descritta come raffigurazione di nudità o biancheria intima, deputati e ministri hanno sostenuto che la creazione di immagini non consensuali di donne e bambini in bikini e magliette bagnate tramite Grok dimostra una grave lacuna nell'approccio.
Anche la segretaria per la Tecnologia, Liz Kendall, ha osservato che la legge è rivolta alle applicazioni di nudità e potrebbe non applicarsi nemmeno a Grok. Secondo Clare McGlynn, professoressa di diritto all'Università di Durham, il divieto di nudità non è una soluzione che contrasterà la generazione di immagini sessuali con Grok, sottolineando che non si applicherà nemmeno al chatbot. Il reato è concepito per essere applicato solo alle applicazioni sviluppate per la creazione di immagini intime non consensuali.
D'altro canto, Grok è considerato un modello di intelligenza artificiale generico in grado di prevedere immagini, testo e codice, e molto probabilmente sarebbe al di fuori dell'ambito di applicazione della legge. In una lettera al deputato laburista Chi Onwurah, Kendall ha affermato che Grok potrebbe non essere coperto dalle proposte. Ha affermato che durante l'analisi, èdentche non tutti i chatbot rientravano nell'ambito di applicazione della legge. Tuttavia, ha osservato che i funzionari sono stati incaricati di esaminare la questione per colmare la lacuna.
Gli esperti mettono in guardia sui rischi dei chatbot AI
Mercoledì scorso, X ha rilasciato una dichiarazione in cui annunciava che avrebbe bloccato geograficamente la possibilità per gli utenti di generare immagini di persone reali in abiti succinti, come bikini, biancheria intima e indumenti simili, nelle aree in cui ciò è attualmente illegale. Resta da vedere se immagini simili potranno ancora essere generate utilizzando l'applicazione Grok o il sito web. xAI, la società madre di Grok, non ha specificato se ciò avverrà o se il blocco riguarderà anche queste aree.
Il dibattito si sta sviluppando contro le crescenti preoccupazioni sulla violenza contro le donne e le ragazze (VAWG) perpetrata tramite tecnologie. I rapporti affermano che circa un reato su 10 registrato che coinvolge la VAWG presenta già una componente digitale, un dato che gli esperti ritengono sottostimi significativamente la reale portata. I giovani sono esposti a maggiori rischi poiché trascorrono più tempo online. Secondo gli attivisti, l'intelligenza artificiale può essere un acceleratore del danno.
Il gruppo ha anche affermato che l'intelligenza artificiale consente di generare e condividere abusi su larga scala. Nel frattempo, gli esperti hanno avvertito che in futuro potrebbero emergere altre controversie tra intelligenza artificiale e chatbot. Michael Birtwistle, direttore associato dell'Ada Lovelace Institute, un ente di ricerca sull'intelligenza artificiale, ha affermato che i futuri focolai di irritazione potrebbero includere bambini presi di mira da interazioni sessuali da parte di chatbot o assistenti di intelligenza artificiale che dispensano dubbi sulla salute o consigli finanziari ai loro utenti.

