Your bank is using your money. You’re getting the scraps.WATCH FREE

Google riconosce gli errori di Gemini AI in materia di diversità razziale: sollecita rapidi cambiamenti dopo le reazioni negative

In questo post:

  • L'intelligenza artificiale Gemini di Google, volta a diversificare la generazione di immagini, è stata criticata per aver rappresentato in modo sistematicamente impreciso personaggi storici, sollevando preoccupazioni sulla rappresentazione razziale.
  • Gli utenti hanno segnalato l'incapacità di Gemini di generare immagini di personaggi storici bianchi in modo accurato, scatenando polemiche e accuse di output algoritmico distorto.
  • Google ammette la sua svista e promette cambiamenti immediati, implementando restrizioni sulla generazione di immagini per evitare ulteriori reazioni negative.

In un recente sviluppo, Google LLC si trova al centro di una controversia riguardante la sua intelligenza artificiale generativa, Gemini AI. Il gigante della tecnologia ha riconosciuto le carenze del suo generatore di immagini, ammettendo che i suoi tentativi di promuovere la diversità attraverso l'intelligenza artificiale di Gemini hanno portato a conseguenze indesiderate. La parola chiave "Gemini AI" è diventata sinonimo di discussioni sulla diversità razziale nelle immagini generate dall'intelligenza artificiale, innescando dibattiti e spingendo Google a intervenire rapidamente per affrontare la questione.

Le conseguenze razziali indesiderate dell'intelligenza artificiale Gemini

L'ambizioso progetto di Google di infondere diversità nel suo processo di generazione di immagini tramite l'intelligenza artificiale Gemini ha suscitato indignazione e critiche da più parti. Gli utenti hanno sollevato preoccupazioni circa l'accuratezza storica delle immagini prodotte da Gemini, citando casi in cui personaggi storici di spicco apparivano ritratti in modo impreciso in termini di razza. Dai padri fondatori degli Stati Uniti alla stirpe dei Papi nel corso della storia, le discrepanze nella rappresentazione razziale hanno alimentato il malcontento tra gli utenti. Anche la rappresentazione da parte dell'intelligenza artificiale di personaggi che vanno dai vichinghi ai giocatori di hockey canadesi è stata oggetto di analisi, con molti che hanno notato continue rappresentazioni errate in termini di razza e genere.

La controversia che circonda Gemini AI si è ulteriormente intensificata quando gli utenti hanno segnalato casi in cui l'IA ha avuto difficoltà a generare immagini di personaggi storici bianchi in modo accurato. Al contrario, sembrava in grado di produrre immagini di individui di colore senza problemi, sollevando interrogativi su potenziali pregiudizi insiti nell'algoritmo. Una dichiarazione rivelatrice di un dipendente di Google ha evidenziato le difficoltà nell'affrontare queste preoccupazioni, riconoscendo la difficoltà nel far sì che Gemini AI riconoscesse l'esistenza di individui bianchi, una rivelazione che ha gettato benzina sul fuoco dell'attenzione pubblica.

Vedi anche  Musk non ha intenzione di lasciare Tesla per i prossimi cinque anni

La risposta di Google e le misure correttive

In risposta alle crescenti critiche, Google ha adottato misure proattive per affrontare le carenze di Gemini AI. Jack Krawczyk, Senior Director of Product Management per Gemini Experiences di Google, ha rilasciato una dichiarazione in cui riconosce la necessità di miglioramenti immediati. Google ha implementato misure per limitare la generazione di immagini che potrebbero suscitare ulteriori controversie, con Gemini che ora si rifiuta di creare rappresentazioni di personaggi controversi come nazisti, vichinghi odentamericani del 1800. Queste misure riflettono l'impegno di Google nel porre rimedio alla situazione e mitigare i potenziali danni causati dalle conseguenze indesiderate dell'IA.

Mentre Google affronta le conseguenze della sull'intelligenza artificiale Gemini , l'incidente dent interrogativi più ampi sull'intersezione tra tecnologia, diversità e pregiudizi algoritmici. Sebbene l'azienda abbia adottato misure decisive per affrontare la questione, permangono preoccupazioni sui fattori sottostanti che contribuiscono a tali passi falsi nello sviluppo dell'intelligenza artificiale. Come possono le aziende tecnologiche trovare un equilibrio tra la promozione della diversità e la garanzia dell'equità algoritmica nelle applicazioni basate sull'intelligenza artificiale? Mentre proseguono le discussioni sulla rappresentazione razziale nell'intelligenza artificiale, il fiasco dell'intelligenza artificiale Gemini serve da serio promemoria delle complessità insite nella ricerca di una tecnologia inclusiva.

Se stai leggendo questo, sei già in vantaggio. Resta aggiornato con la nostra newsletter .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo tron di dent indipendenti e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan