OpenAI segnala un crescente utilizzo dannoso di ChatGPT da parte di gruppi cinesi

- OpenAI ha osservato un aumento degli abusi del suo ChatGPT da parte di gruppi legati alla Cina.
- L'azienda segnala regolarmente attività dannose sulle sue piattaforme.
- Tuttavia, OpenAI ha interrotto campagne e bannato account dannosi, migliorando le misure di sicurezza dell'intelligenza artificiale.
OpenAI ha rivelato un aumento dell'uso clandestino dei suoi strumenti, in particolare legato a gruppi cinesi che sfruttano la sua piattaforma ChatGPT per scopi illeciti.
Dal lancio di ChatGPT nel novembre 2022, avvenuto con immediato successo, sono sorte preoccupazioni circa le sue potenziali conseguenze, basate sulla sua capacità di generare audio, testo, immagini e video simili a quelli umani. OpenAI ha inoltre pubblicato regolarmente rapporti su eventuali attività dannose sulle sue piattaforme, come la creazione di contenuti falsi per i siti web.
OpenAI smantella 10 campagne separate che abusano dei suoi strumenti
In un rapporto pubblicato giovedì, l'azienda con sede a San Francisco ha rivelato di aver recentemente smantellato dieci campagne distinte che sfruttavano i suoi strumenti di intelligenza artificiale. Di queste, quattro erano organizzate da gruppi legati alla Cina, mentre altre, su scala minore, erano collegate ad altri Paesi.
Secondo Ben Nimmo, responsabile delle indagini del team di OpenAI, queste operazioni legate alla Cina hanno impiegato un'ampia gamma di tattiche su diverse piattaforme online.
"Stiamo osservando un kit di strumenti in continua espansione", ha detto ai giornalisti.
“Alcune campagne hanno unito operazioni di influenza, ingegneria sociale e sorveglianza, e hanno interessato piattaforme come TikTok e X, ma anche Reddit e Facebook.”
Nimmo.
Uno degli esempi principali, soprannominato "Sneer Review", ha utilizzato ChatGPT per pubblicare brevi post e commenti in inglese, cinese e urdu. Questi trattavano argomenti come lo scioglimento dell'Agenzia statunitense per lo sviluppo internazionale (USAID), esprimendo alternativamente apprezzamento e critica alla decisione, e critiche a un videogioco strategico taiwanese presentato come un attacco al partito al potere in Cina.
Secondo il rapporto di OpenAI, nella maggior parte dei casi l'operazione ha generato non solo post originali, ma anche risposte, facendolo apparire come un dibattito "autentico". Gli stessi gruppi hanno anche creato un lungo articolo in cui si denunciava un'ampia protesta pubblica contro il gioco.
La "Sneer Review" ha utilizzato ChatGPT anche per redigere documenti interni e valutazioni delle prestazioni, evidenziando in dettaglio ogni fase dell'esecuzione della campagna. Gli analisti di OpenAI hanno scoperto che il comportamento effettivo sui social media rispecchiava fedelmente quelle autovalutazioni, sottolineando come l'intelligenza artificiale possa semplificare sia l'influenza in prima linea che la gestione del back-office.
Il rapporto ha anche mostrato che un'altra rete collegata alla Cina si concentrava sulla raccolta di informazioni, fingendosi giornalisti e commentatori geopolitici. Hanno utilizzato il chatbot per creare biografie di account su X, tradurre comunicazioni tra cinese e inglese e persino creare messaggi diretti a un senatore statunitense in merito a una nomina federale.
Anche gruppi di altri paesi hanno fatto un uso improprio degli strumenti di OpenAI
Oltre alle operazioni cinesi, il rapporto rileva che russi e iraniani hanno tentato di utilizzare ChatGPT per influenzare le elezioni, riaccendendo le preoccupazioni sul ruolo dell'intelligenza artificiale generativa nel plasmare l'opinione pubblica.
Nelle Filippine, un'agenzia di marketing commerciale è stata collegata a una campagna di spam, mentre è emersa anche una truffa di reclutamento con collegamenti alla Cambogia. L'azienda ha anche segnalato un'altra iniziativa di assunzione con interessi nordcoreani.
Tutte queste minacce coincidevano con un precedente rapporto di febbraio in cui OpenAI aveva scoperto un'iniziativa di sorveglianza affiliata alla Cina. Questa campagna avrebbe monitorato le proteste occidentali in tempo reale, fornendo resoconti alle agenzie di sicurezza cinesi, mentre ChatGPT facilitava ogni aspetto, dal debug del codice alla stesura di proposte di vendita per il software di monitoraggio.
Nimmo ha dichiarato che la maggior parte di queste operazioni sono state individuate e fermate, anche se sembrava che utilizzassero strumenti sofisticati.
"L'intelligenza artificiale avanzata non si traduce necessariamente in risultati più efficaci", ha osservato. In effetti, i report periodici sulle minacce di OpenAI suggeriscono che, sebbene i modelli generativi possano accelerare la creazione di contenuti, non garantiscono un'influenza reale o una traccapillare.
In risposta a queste scoperte, OpenAI ha continuato a perfezionare i propri meccanismi di monitoraggio e applicazione delle misure. L'azienda blocca gli account collegati alle operazioni rilevate e rimuove tutti quelli coinvolti nella creazione di malware, messaggi politici automatizzati o contenuti fuorvianti.
Nell'ultima fase della sua operazione, OpenAI ha rimosso account che pubblicavano contenuti controversi di natura geopolitica riguardanti la Cina, tra cui false accuse contro attivisti in Pakistan e commenti sulle tariffarie .
Nonostante i successi di OpenAI, l'azienda riconosce anche la natura a doppio taglio dell'intelligenza artificiale generativa, come strumento di innovazione e come strumento di disinformazione.
Esiste una via di mezzo tra lasciare i soldi in banca e tentare la fortuna con le criptovalute. Inizia con questo video gratuito sulla finanza decentralizzata.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)














