ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

L'analista di Google avverte che le risposte dell'intelligenza artificiale "non sono perfette e non possono sostituire il cervello"

DiJeffrey GogoJeffrey Gogo
Tempo di lettura: 3 minuti.
Google
  • L'analista di Google Gary Illyes ha avvertito che gli LLM presentano ancora lacune in termini di accuratezza.
  • I modelli hanno bisogno dell'occhio umano per verificare il contenuto che producono.
  • Ha affermato che le persone non dovrebbero fidarsi delle risposte dell'intelligenza artificiale senza prima aver verificato le fonti autorevoli.

L'analista di Google Gary Illyes ha avvertito che i modelli linguistici su larga scala – la tecnologia alla base dei chatbot di intelligenza artificiale generativa come ChatGPT – presentano ancora lacune in termini di accuratezza e necessitano di un controllo umano per verificare i contenuti prodotti. Queste dichiarazioni giungono a pochi giorni dal lancio di SearchGPT, un nuovo motore di ricerca basato sull'intelligenza artificiale che competerà direttamente con Google. 

Illyes ha condiviso i commenti su LinkedIn in risposta a una domanda ricevuta via e-mail, senza però specificarne il contenuto. Ha affermato che non bisogna fidarsi ciecamente delle risposte generate dall'IA senza prima consultarle con altre fonti autorevoli. OpenAI punta a scalzare il dominio di Google nel mercato dei motori di ricerca con il suo strumento di ricerca.

Le risposte dell'intelligenza artificiale non sono "necessariamente corrette nei fatti"

Illyes, che lavora in Google da oltre un decennio, ha affermato che, sebbene le risposte dell'IA possano essere vicine alla realtà, non sono "necessariamente corrette nei fatti". Questo perché i modelli linguistici di grandi dimensioni (LLM) non sono immuni dall'essere influenzati da informazioni errate che circolano su Internet, ha spiegato.

"Sulla base dei dati di addestramento, gli LLM individuano le parole, le frasi e le espressioni più adatte al contesto e al significato di un messaggio", ha scritto Illyes. "Questo consente loro di generare risposte pertinenti e coerenti. Ma non necessariamente corrette dal punto di vista fattuale"

L'analista di Google ha affermato che gli utenti dovranno comunque convalidare le risposte dell'IA in base a ciò che "conoscono sull'argomento a cui hanno chiesto l'LLM o su ulteriori letture su risorse autorevoli per la loro query"

Un modo in cui gli sviluppatori hanno cercato di garantire l'affidabilità dei contenuti generati dall'intelligenza artificiale è attraverso una pratica chiamata "grounding". Il processo prevede l'integrazione di informazioni create dalla macchina con elementi umani per prevenire errori. Secondo Illyes, il grounding potrebbe non essere ancora sufficiente.

"Il grounding può aiutare a creare risposte più corrette dal punto di vista fattuale, ma non è perfetto; non sostituisce il cervello", ha affermato. "Internet è pieno di disinformazione, intenzionale e involontaria, e non crederesti a tutto ciò che leggi online, quindi perché dovresti credere alle risposte di un LLM?"

Elon Musk accusa Google di aver bloccato le informazioni pubbliche

Tradizionalmente, la fiducia è sempre stata un problema per quanto riguarda i motori di ricerca come Google e altre piattaforme di intelligenza artificiale e il modo in cui esercitano un certo controllo sulle informazioni che trasmettono agli utenti.

Un esempio di ciòdentdentdent dentdentdentdent dentdent Trump. Elon Musk ha insinuato che Google abbia impedito che la notizia della sparatoriadent nei risultati di ricerca, scatenando un acceso dibattito sui social media in merito alla portata delle grandi aziende tecnologiche.

Nella raffica di risposte, un account falso che si spacciava per appartenente alla vicepresidente di Googledent Mostarac si è aggiunto al dibattito, condividendo delle false scuse da parte dell'azienda per aver presumibilmente bloccato dei contenuti su Trump.

"...Le esigenze informative delle persone continuano a crescere, quindi continueremo a evolvere e migliorare la Ricerca. Tuttavia, sembra che dobbiamo ricalibrare il concetto di accuratezza. Ciò che è accurato è soggettivo e la ricerca dell'accuratezza può ostacolare il raggiungimento degli obiettivi", ha pubblicato l'account falso su X.

"Potete essere certi che il nostro team sta lavorando duramente per garantire che la nostra venerazione per l'accuratezza non diventi unatracche ostacola la nostra visione del futuro", ha aggiunto.

Le note della community su X hanno immediatamente segnalato il tweet, affermando che la persona si stava spacciando per il vicepresidente di Google. Questo è un esempio di come le informazioni possano essere facilmente distorte e i modelli di intelligenza artificiale potrebbero non essere in grado di distinguere ciò che è accurato da ciò che non lo è senza la revisione umana.

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO