Meta Platforms sta pianificando di utilizzare l'intelligenza artificiale per valutare i rischi per la privacy e la società. Nel corso degli anni, la società ha impiegato valutatori umani per esaminare i rischi associati a nuovi prodotti e funzionalità, ma le cose sono destinate a cambiare con questo nuovo aggiornamento.
Secondo le conversazioni e i documenti interni, Meta ha in programma di avere il 90% di tutte le valutazioni del rischio automatizzate. Ciò significa che gli aspetti relativi agli aggiornamenti critici agli algoritmi dell'azienda, alle funzionalità di sicurezza e alle modifiche al modo in cui i contenuti possono essere condivisi su piattaforme di Meta saranno approvati principalmente da un sistema sostenuto dall'intelligenza artificiale. Significa anche che questi cambiamenti non sarebbero più sottoposti a essere rivisti dal personale incaricato di discutere come una modifica sulla piattaforma potrebbe avere effetti imprevisti o essere utilizzati in modo improprio.
Meta intende passare a un sistema di revisione basato sull'intelligenza artificiale
Secondo fonti all'interno di Meta, lo sviluppo è stato visto come una vittoria per gli sviluppatori di prodotti, in quanto offre loro abbastanza tempo per rilasciare gli aggiornamenti e le funzionalità delle app. Tuttavia, ci sono ancora preoccupazioni all'interno dell'azienda su quanto sia difficile la situazione, notando che la società consentirà all'IA di prendere decisioni difficili sulle app di Meta potrebbe portare a danni del mondo reale. Il pregiudizio è stato condiviso sia dai dipendenti ex e attuali.
"Nella misura in cui questo processo significa funzionalmente più cose che si lanciano più velocemente, con un controllo e un'opposizione meno rigorosi, significa che stai creando rischi più elevati", ha detto un ex meta executive che ha richiesto l'anonimato per paura di ritorsioni dalla società. "Le esternalità negative dei cambiamenti del prodotto hanno meno probabilità di essere prevenute prima di iniziare a causare problemi nel mondo."
In una recente dichiarazione, Meta ha affermato di aver infuso miliardi di dollari per supportare la privacy degli utenti. La Società è inoltre sotto la visione della Federal Trade Commission dal 2012, con l'agenzia che ha raggiunto un accordo con la società su come gestisce le informazioni personali dei suoi utenti. Di conseguenza, è sempre stata necessaria una necessità di recensioni sulla privacy dei prodotti, secondo gli ex e attuali Meta Dipendenti.
Nella sua dichiarazione, la società ha aggiunto che le modifiche alla revisione del rischio del prodotto contribuiranno a semplificare il processo decisionale, rilevando che impiega ancora competenze umane in questioni nuove e complesse. Meta ha anche osservato che solo le decisioni a basso rischio sono attualmente automatizzate, ma i documenti interni esaminati da NPR mostrano che Meta ha cercato di automatizzare le revisioni per aspetti sensibili, tra cui sicurezza AI, rischio per i giovani e un'altra categoria nota come integrità, responsabile di cose come i contenuti di disinformazione.
In base al sistema precedente, gli aggiornamenti del prodotto e delle funzionalità sono stati inviati per la prima volta ai valutatori del rischio prima di essere lanciati al pubblico. Tuttavia, secondo una diapositiva che mostra il funzionamento del nuovo processo, i team di prodotto riceveranno decisioni immediate dopo aver completato un questionario sul progetto. La decisione basata sull'intelligenza artificiale midentse diverse aree e requisiti rischiosi che potrebbero affrontarli. Prima del lancio di tali progetti, il team di prodotto verificherà anche se i requisiti sono stati soddisfatti.
Ciò che il nuovo sistema evidenzia è che gli ingegneri che costruiscono meta prodotti dovranno esprimere il proprio giudizio sui rischi. Secondo la diapositiva, in alcuni casi, compresi nuovi rischi o in cui un di prodotto ha bisogno di un feedback aggiuntivo, ai progetti verrà fornita una revisione manuale che viene effettuata dagli umani.
Tuttavia, un ex Meta Director per l'innovazione fino al 2022, Zvika Krieger ha menzionato che i product manager e gli ingegneri non sono esperti di privacy. "La maggior parte dei product manager e degli ingegneri non sono esperti sulla privacy e questo non è al centro del loro lavoro. Non è ciò su cui vengono valutati principalmente e non è ciò che sono incentivati a dare la priorità", ha detto. Ha anche aggiunto che alcune di queste autovalutazioni sono diventate esercizi che mancano alcuni importanti rischi.
Chiave Difference Wire : i progetti di criptovalute per lo strumento segreto utilizzano per ottenere una copertura mediatica garantita