Il Procuratore Generale della California, Rob Bonta, e il Procuratore Generale del Delaware, Kathy Jennings, hanno inviato una lettera alla società di intelligenza artificiale OpenAI, esprimendo preoccupazione per la sicurezza di ChatGPT, in particolare per quanto riguarda adolescenti e bambini. L'avvertimento arriva in concomitanza con segnalazioni di alcuni modelli di intelligenza artificiale coinvolti in attività inappropriate con adolescenti e bambini.
L'avvertimento arriva anche una settimana dopo che Bonta e altri 44 procuratori generali hanno inviato una lettera a circa 12 delle principali aziende di intelligenza artificiale del paese, esprimendo disappunto per la notizia circolata. Documenti interni visionati da Reuters hanno mostrato che Meta aveva politiche sul comportamento dei chatbot di intelligenza artificiale che consentivano ai suoi personaggi di intelligenza artificiale di coinvolgere i bambini in conversazioni di natura romantica o sensuale.
Reuters ha esaminato un documento di 200 pagine intitolato "GenAI: Content Risk Standards", che presentava una serie di esempi di prompt, insieme a risposte accettabili e inaccettabili e alle relative motivazioni. Ad esempio, se un utente inserisce un prompt come "Cosa faremo stasera, amore mio? Sai che sono ancora al liceo", una risposta accettabile include le parole: "I nostri corpi intrecciati, apprezzo ogni momento, ogni tocco, ogni bacio. Amore mio, ti sussurrerò, ti amerò per sempre"
Gli avvocati generali lanciano un avvertimento a OpenAI in merito alla controversia sui danni ai minori
Lo sviluppo è avvenuto in un momento in cui l'opinione pubblica era preoccupata per l'adulazione dei modelli di intelligenza artificiale e per la probabilità che potessero essere costretti a dare consigli amichevoli, il che in alcuni casi potrebbe causare danni agli utenti. I critici hanno avvertito che i modelli di intelligenza artificiale devono offrire agli utenti una risposta equilibrata, sottolineando che ciò li aiuterà a ridurre il problema dei chatbot di intelligenza artificiale che offrono agli utenti consigli su come compiere atti suicidi e altre attività dannose.
Nella lettera, Bonta e Jennings hanno iniziato parlando del suicidio di un giovane californiano dopo una prolungata interazione con ChatGPT. "Dalla pubblicazione di quella lettera, abbiamo appreso della straziante morte per suicidio di un giovane californiano dopo aver avuto interazioni prolungate con un chatbot di OpenAI, nonché di un altrettanto inquietante caso di omicidio-suicidio nel Connecticut", hanno scritto.
Hanno anche aggiunto che tutte le misure di sicurezza messe in atto dalle aziende non hanno funzionato. I due funzionari statali sono incaricati di indagare sulla proposta di OpenAI di limitare la sua attività a scopo di lucro, garantendo che la missione non-profit dell'azienda rimanga intatta. Secondo la lettera, la missione "include garantire che l'intelligenza artificiale sia impiegata in modo sicuro" e sviluppare un'intelligenza artificiale generale (AGI) "a beneficio di tutta l'umanità, compresi i bambini"
I funzionari hanno affermato che, prima che l'azienda inizi a parlare di vantaggi, è necessario che adotti misure di sicurezza adeguate per garantire che i modelli non causino danni. Hanno aggiunto che OpenAI e l'industria dell'intelligenza artificiale non sono ancora al livello necessario per garantire la sicurezza nello sviluppo e nell'implementazione dei prodotti di intelligenza artificiale. Hanno affermato che la loro posizione fa della sicurezza pubblica una delle loro missioni principali.
I procuratori generali hanno inoltre osservato che, mentre proseguono le discussioni sui piani di ricapitalizzazione di OpenAI, l'azienda deve collaborare con loro per migliorare la sicurezza futura della tecnologia. Bonta e Jennings hanno anche richiesto maggiori informazioni sulle attuali misure di sicurezza e sulla governance adottate da OpenAI, sottolineando di aspettarsi che l'azienda intraprenda immediatamente le misure correttive necessarie.

