ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Google limita le panoramiche AI ​​per le query satiriche e senza senso

DiAamir SheikhAamir Sheikh
Tempo di lettura: 3 minuti.
Google limita le panoramiche AI ​​per le query satiriche e senza senso
  • Secondo gli utenti e gli analisti dei motori di ricerca, Google ora mostra meno panoramiche basate sull'intelligenza artificiale.
  • Liz Reid, vicepresidente di Google Search, ha ammesso che il colosso della ricerca stava riducendo le panoramiche basate sull'intelligenza artificiale.
  • Google hadenti contenuti satirici e senza senso come causa di risposte errate.

Google sta riducendo la visualizzazione delle panoramiche basate sull'intelligenza artificiale in alcuni risultati di ricerca. La decisione è stata presa dopo che il gigante della ricerca ha commesso alcuni errori pubblicizzati che hanno scatenato una reazione negativa sul web.

Giovedì, Liz Reid, responsabile della Ricerca Google, ha ammesso che l'azienda stava limitando i riepiloghi generati dall'intelligenza artificiale chiamati "Panoramiche AI". La funzionalità basata sull'intelligenza artificiale è stata criticata quando ha iniziato a mostrare contenuti che invitavano gli utenti a mangiare sassi e ad attaccare il formaggio alla pizza.

Leggi anche: Google, OpenAI e altre 13 aziende si impegnano a non implementare modelli di intelligenza artificiale rischiosi

Google ha iniziato a mostrare le panoramiche sull'intelligenza artificiale ai suoi utenti negli Stati Uniti due settimane fa, dopo l'evento annuale I/O, durante il quale ha lanciato diverse offerte basate sull'intelligenza artificiale. Da giovedì in poi, gli utenti hanno notato un calo delle domande, il che ha portato a una risposta basata sull'intelligenza artificiale.

dentle false panoramiche di intelligenza artificiale richiede un'analisi attenta

Reid ha scritto in un post sul blog che sui social media sono stati condivisi screenshot di panoramiche di intelligenza artificiale che suggerivano soluzioni bizzarre. Ha affermato che l'intelligenza artificiale dell'azienda ha commesso alcuni errori, ma molti erano falsi e non erano mai stati generati dal sistema di intelligenza artificiale di Google.

Google limita le panoramiche AI ​​per le query satiriche e senza senso
La panoramica dell'intelligenza artificiale di Google suggerisce di incollare il formaggio sulla pizza. Fonte.

Ha ammesso che sono emerse alcune panoramiche sull'IA strane o imprecise. Evidenziavano le aree in cui la funzionalità necessitava di miglioramenti, ma non si trattava di query comunemente ricercate. Notando quelle false, ha affermato:

"Separatamente, sono stati ampiamente condivisi numerosi screenshot falsi. Alcuni di questi risultati falsi erano palesi e ridicoli."

Reid ha affermato che Google non ha mostrato alcuna panoramica basata sull'intelligenza artificiale per argomenti come il fumo in gravidanza o il lasciare i cani in auto. Ha incoraggiato gli utenti che hanno visto quegli screenshot sui social media a cercarli e a verificarli.

L'intelligenza artificiale di Google ora puòdenti contenuti satirici

Googledentche i contenuti satirici e le query senza senso erano aree che dovevano essere affrontate per produrre panoramiche di intelligenza artificiale inaccurate. Google ha affermato che prima che gli screenshot della query "Quante pietre dovrei mangiare?" diventassero virali, nessuno aveva posto la domanda. Reid ha affermato che è possibile consultare Google Trends per conferma.

Leggi anche: Opera integra i modelli Gemini di Google per migliorare l'IA del browser Aria

Un altro fattore è la scarsità di contenuti disponibili su un argomento specifico, noto anche come data void, che è anche una delle ragioni per cui le panoramiche AI ​​sono imprecise. Per quanto riguarda la query sul "mangiare rocce", Reid ha affermato che la natura satirica del contenuto ha attivato la Panoramica AI. Il contenuto è stato anche ripubblicato da un sito web di software geologico, a cui la Panoramica AI rimanda. Ha chiarito:

"Quindi, quando qualcuno ha inserito quella domanda nella Ricerca, è apparsa una panoramica AI che rimandava fedelmente a uno dei pochi siti web che affrontavano la questione."

Reid non ha menzionato le altre panoramiche sull'intelligenza artificiale che circolano sui social media, e anche molti grandi editori hanno pubblicato articoli al riguardo. Ad esempio, il Washington Post ha pubblicato un articolo su Google che ha detto alla gente che Barack Obama era musulmano. La pubblicazione ha anche riportato un altro caso in cui la panoramica sull'intelligenza artificiale di Google ha suggerito a un utente di bere urina per favorire l'espulsione dei calcoli renali.

Google ha un'ossessione per i forum pubblici

Il responsabile della ricerca di Google ha sottolineato che l'azienda ha testato ampiamente la funzionalità prima di renderla disponibile al pubblico. Ha anche ammesso che le pratiche di utilizzo nel mondo reale sono difficili da simulare in fase di test, ma l'azienda ha svolto un'accurata attività di red-teaming e campionamento delle query tipiche degli utenti. 

Leggi anche: La funzionalità Panoramica sull'IA di Google è oggetto di critiche per i risultati inaccurati

Alcuni utenti e analisti di contenuti web hanno notato che Google ha recentemente iniziato a mostrare molti risultati provenienti da forum pubblici come Reddit. Alcuni mettono in dubbio l'accordo tra l'azienda e Reddit, ma un portavoce di Google ha dichiarato alla BBC che tali termini non erano inclusi nell'accordo per dare a Reddit maggiore visibilità nei risultati di ricerca.

Lily Ray,dent della strategia SEO e della ricerca presso l'agenzia di marketing Amsive, afferma che ora molte query mostrano risultati provenienti da Reddit. Ha anche preso in giro Google in un post su X (in precedenza Twitter), affermando che tutta la conoscenza mondiale (i contenuti di Reddit) è combinata con l'intelligenza artificiale.

Reid ha affermato che le panoramiche AI ​​presentano in alcuni esempi contenuti sarcastici tratti dai forum di discussione. Ha affermato che i forum sono una buona fonte di informazioni di prima mano, ma in alcuni casi possono innescare risposte non proprio utili, come "incollare il formaggio sulla pizza".

Anche l'intelligenza artificiale di Google interpreta male il linguaggio, il che porta a informazioni errate nelle panoramiche AI, ma la percentuale di risposte di questo tipo è molto bassa, secondo l'azienda. Reid ha osservato che hanno risolto rapidamente i problemi apportando miglioramenti o rimuovendo le risposte non conformi alle policy di Google.

La vicepresidente di Google Search ha anche affermato chetronmisure di sicurezza per argomenti come salute e notizie. L'azienda ha lanciato nuovi perfezionamenti per migliorare la protezione della qualità dei risultati relativi alla salute. Reid ha dichiarato che il sistema di rilevamento è stato aggiornato anche per le query prive di senso, in modo da non mostrarle come panoramiche generate dall'IA. Ha inoltre accennato alla conferma di un minor numero di panoramiche generate dall'IA per le query satiriche, affermando: "Abbiamo aggiornato i nostri sistemi per limitare l'uso di contenuti generati dagli utenti nelle risposte che potrebbero offrire consigli fuorvianti".


Reportage Cryptopolitan di Aamir Sheikh

Se stai leggendo questo, sei già un passo avanti. Rimani al passo con i tempi iscrivendoti alla nostra newsletter.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO