Strumenti di intelligenza artificiale (IA) come ChatGPT di OpenAI possono svolgere diverse funzioni, ma a volte gli utenti riscontrano dei problemi. Recentemente, sono emerse segnalazioni secondo cui ChatGPT ha smesso di funzionare quando si chiedeva di specificare alcuni nomi, come David Mayer.
La comunità ora mette in discussione la gestione da parte del modello di dati sensibili o giuridicamente complessi. Possiamo aspettare che gli strumenti di intelligenza artificiale affrontino ulteriori problematiche relative alla privacy, in mezzo a diverse cause legali.
ChatGPT non rivela chi è David Mayer
Secondo quanto riferito, ChatGPT di OpenAI TechCrunch ha citato utenti che hanno segnalato una lista di nomi inaccessibili, tra cui "David Mayer", che hanno causato il blocco o l'arresto anomalo del chatbot senza risposta.
Quando martedì Cryptopolitan ha verificato come rispondeva la chatbox basata sul modello linguistico Generative Pre-trained Transformer (GPT), i risultati sono stati simili ma non esattamente uguali.

A quanto pare, David Mayer non è più un nome proibito. Secondo ChatGPT-4o, Mayer è un nome piuttosto comune, sebbene non sia stato possibile specificare la persona. Alla domanda sul problema precedente, ChatGPT ha liquidato la questione dicendo:
Capisco a cosa ti riferisci! Potrebbero esserci stati casi in cui si sono verificati problemi o errori di formattazione, ortografia o generazione di contenuti, ma nulla di specificamente legato alla frequente ortografia errata del nome "David Mayer"
Si raccomandava inoltre di segnalare le risposte "strane e incoerenti".
Altri nomi (Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza) hanno causato il malfunzionamento del sistema durante il fine settimana e di nuovo martedì, quando abbiamo controllato.

Il rapporto rileva che questi nomi appartengono a personaggi pubblici o semi-pubblici, come giornalisti, avvocati o persone che potrebbero essere state coinvolte in controversie legali o sulla privacy con OpenAI. Ad esempio, in passato ChatGPT avrebbe fornito informazioni false sull'individuo di nome Hood, il che avrebbe portato a discussioni legali con OpenAI.
Si accumulano le cause legali contro le aziende
TechCrunch ipotizza che OpenAI potrebbe essere cauta nell'elencare i nomi per gestire in modo diverso le informazioni sensibili o protette dalla legge. Potrebbe essere per rispettare le leggi sulla privacy o gli accordi legali. Tuttavia, un malfunzionamento del codice potrebbe causare il blocco del chatbot ogni volta che vengono richieste informazioni sui nomi menzionati.
Nel corso degli anni, sono stati avviati diversi casi legali tra aziende di intelligenza artificiale per aver generato informazioni errate o violato il quadro normativo . In un caso del 2020, Janecyk contro International Business Machines, il fotografo Tim Janecyk ha affermato che IBM ha utilizzato impropriamente immagini scattate da fotografi per scopi di ricerca senza consenso. Non molto tempo fa, Gemini AI di Google è stata criticata per le sue capacità di generazione di immagini, che hanno portato alla sua sospensione temporanea. Nella class action PM contro OpenAI LP, intentata nel 2023, OpenAI è stata accusata di aver utilizzato "informazioni private rubate" senza consenso.
Nel 2024, l'agenzia di stampa indiana ANI avrebbe intentato una causa contro OpenAI per aver utilizzato materiale protetto da copyright della società di media per la formazione dell'LLM.
Con la crescente integrazione degli strumenti di intelligenza artificiale nella vita quotidiana,dentcome questi sottolineano l'importanza di considerazioni etiche e legali nel loro sviluppo. Che si tratti di salvaguardare la privacy, garantire informazioni accurate o evitare malfunzionamenti legati a dati sensibili, aziende come OpenAI si trovano ad affrontare il compito di costruire fiducia e al contempo perfezionare la propria tecnologia. Queste sfide ci ricordano che anche i sistemi di intelligenza artificiale più avanzati richiedono una vigilanza costante per affrontare le complessità tecniche, etiche e legali.

