OpenAI respinge la causa del New York Times e accusa la manipolazione del modello di intelligenza artificiale

- OpenAI confuta la causa del New York Times, sostenendo che si tratti di manipolazione immediata per indurre la ripetizione del modello di intelligenza artificiale.
- L'organizzazione esprime sorpresa e delusione nell'apprendere della causa tramite il New York Times.
- OpenAI sottolinea il principio del fair use e offre un'opzione di opt-out per l'utilizzo dei dati, mentre continuano le molteplici cause legali contro di loro e Microsoft.
In risposta alla recente causa intentata dal New York Times contro OpenAI, la principale organizzazione di ricerca sull'intelligenza artificiale ha rilasciato una dichiarazione ufficiale in cui respinge fermamente le accuse. OpenAI sostiene che il New York Times abbia manipolato i prompt per indurre i modelli di intelligenza artificiale a riproporre dati relativi ai propri articoli senza autorizzazione. La causa, depositata il 27 dicembre 2023, denuncia l'uso non autorizzato dei contenuti del Times per l'addestramento di Large Language Models (LLM). OpenAI afferma che i contenuti in questione erano pubblicamente disponibili su Internet, rientrando nei limiti del fair use per l'addestramento di modelli di intelligenza artificiale.
Svelare la presunta manipolazione immediata
OpenAI sostiene che il New York Times abbia intenzionalmente ingannato il suo modello di intelligenza artificiale, ChatGPT, inventando prompt per ottenere dati letterali da articoli vecchi di anni, già ampiamente diffusi su vari siti web di terze parti. Questa manipolazione, secondo OpenAI, ha distorto il comportamento del modello, suggerendo che il Times abbia istruito il modello a riproporre o abbia selezionato esempi da numerosi tentativi. L'organizzazione sostiene che, nonostante l'uso di tali prompt, ChatGPT in genere non si comporta come suggerito dal Times.
Sorpresa e delusione per OpenAI
OpenAI ha espresso la propria sorpresa e delusione nello scoprire la causa tramite il New York Times stesso. L'organizzazione sostiene di aver informato il Times che i propri contenuti avrebbero avuto un impatto minimo sull'addestramento dei loro modelli di intelligenza artificiale esistenti e non avrebbero contribuito in modo significativo all'addestramento futuro. OpenAI insiste di non aver mai ricevuto alcuna informazione preliminare sulla causa prima della sua archiviazione pubblica.
Richieste di esempi non soddisfatte
OpenAI ha rivelato che, durante la sua collaborazione con il New York Times, la pubblicazione aveva menzionato casi di rigurgito, ma quando è stata sollecitata a fornire esempi specifici, il Times non ha ottemperato. OpenAI afferma di prendere sul serio le accuse di rigurgito e ha citato la sua tempestiva azione a luglio, quando ha prontamente rimosso una funzionalità di ChatGPT che riproduceva contenuti in tempo reale in modi indesiderati.
Accordi di uso corretto e di licenza
OpenAI sottolinea il principio del fair use, affermando che l'addestramento di modelli di intelligenza artificiale utilizzando materiali pubblicamente disponibili su Internet è coerente condentconsolidati e ampiamente accettati. L'organizzazione ritiene che questo principio sia equo per i creatori, essenziale per gli innovatori e cruciale per la competitività degli Stati Uniti. Sostiene inoltre che, se un contenuto è accessibile su Internet, rientra nella normativa del fair use e può essere utilizzato per l'addestramento di modelli di intelligenza artificiale.
Opzione di esclusione per l'utilizzo dei dati
OpenAI offre un'opzione di opt-out per individui o entità che non desiderano che i propri dati vengano utilizzati per l'addestramento di modelli di intelligenza artificiale. Sottolineano che il New York Times ha esercitato questa opzione nell'agosto 2023, il che implica che la pubblicazione fosse a conoscenza della procedura, ma abbia comunque intentato la causa.
Molteplici cause legali contro OpenAI e Microsoft
Il New York Times non è l'unica entità a intentare un'azione legale contro OpenAI e Microsoft per presunto utilizzo non autorizzato dei dati. All'inizio della stessa settimana, due autori hanno intentato una causa, sostenendo che OpenAI avrebbe utilizzato i loro lavori pubblicati per addestrare i suoi modelli di intelligenza artificiale.
OpenAI contesta fermamente la causa intentata dal New York Times, sostenendo che la pubblicazione abbia manipolato i prompt per indurre i modelli di intelligenza artificiale a rigurgitare dati da materiali online pubblicamente disponibili. OpenAI afferma che le proprie azioni sono in linea con i principi del fair use e sottolinea il proprio impegno a rispondere tempestivamente alle accuse di rigurgito. Inoltre, ha implementato un'opzione di opt-out per l'utilizzo dei dati, sottolineando ulteriormente il proprio impegno per la trasparenza e il rispetto delle preferenze dei creatori di contenuti.
Se vuoi iniziare a muoverti con più calma nel DeFi mondo delle criptovalute , senza il solito clamore, inizia con questo video gratuito.
Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















