Meta Platforms prevede di utilizzare l'intelligenza artificiale per valutare i rischi per la privacy e la società. Nel corso degli anni, l'azienda ha impiegato valutatori umani per analizzare i rischi associati a nuovi prodotti e funzionalità, ma con questo nuovo aggiornamento le cose sono destinate a cambiare.
Secondo conversazioni e documenti interni, Meta prevede di automatizzare il 90% di tutte le sue valutazioni del rischio. Ciò significa che gli aspetti relativi agli aggiornamenti critici degli algoritmi aziendali, alle funzionalità di sicurezza e alle modifiche alle modalità di condivisione dei contenuti sulle piattaforme Meta saranno per lo più approvati da un sistema supportato dall'intelligenza artificiale. Ciò significa anche che queste modifiche non saranno più soggette a revisione da parte del personale incaricato di discutere di come una modifica sulla piattaforma potrebbe avere effetti imprevisti o essere utilizzata in modo improprio.
Meta intende passare a un sistema di revisione basato sull'intelligenza artificiale
Secondo fonti interne a Meta, lo sviluppo è stato visto come una vittoria per gli sviluppatori di prodotti, in quanto offre loro tempo sufficiente per rilasciare aggiornamenti e funzionalità delle app. Tuttavia, all'interno dell'azienda permangono preoccupazioni sulla complessità della situazione, sottolineando che consentire all'intelligenza artificiale di prendere decisioni complesse sulle app di Meta potrebbe portare a danni concreti. Questo pregiudizio è stato condiviso sia dagli ex dipendenti che da quelli attuali.
"Nella misura in cui questo processo, dal punto di vista funzionale, implica un lancio più rapido di più prodotti, con controlli e opposizioni meno rigorosi, significa che si creano rischi maggiori", ha affermato un ex dirigente di Meta che ha richiesto l'anonimato per timore di ritorsioni da parte dell'azienda. "È meno probabile che le esternalità negative delle modifiche ai prodotti vengano prevenute prima che inizino a causare problemi nel mondo"
In una recente dichiarazione, Meta ha affermato di aver investito miliardi di dollari per tutelare la privacy degli utenti. L'azienda è inoltre sottoposta al controllo della Federal Trade Commission dal 2012, che ha raggiunto un accordo con l'azienda sulle modalità di gestione delle informazioni personali dei propri utenti. Di conseguenza, secondo ex e attuali dipendenti di Meta, c'è sempre stata la necessità di revisioni della privacy dei prodotti.
Nella sua dichiarazione, l'azienda ha aggiunto che le modifiche alla revisione del rischio del prodotto contribuiranno a semplificare il processo decisionale, sottolineando che continua a impiegare competenze umane in questioni nuove e complesse. Meta ha anche osservato che attualmente solo le decisioni a basso rischio vengono automatizzate, ma documenti interni esaminati da NPR mostrano che Meta sta valutando l'automazione delle revisioni per aspetti sensibili, tra cui la sicurezza dell'IA, il rischio per i giovani e un'altra categoria nota come integrità, responsabile di fattori come la disinformazione e i contenuti violenti.
Con il sistema precedente, gli aggiornamenti di prodotto e funzionalità venivano inviati ai valutatori del rischio prima di essere resi pubblici. Tuttavia, secondo una diapositiva che mostra il funzionamento del nuovo processo, i team di prodotto riceveranno decisioni immediate dopo aver compilato un questionario sul progetto. La decisione basata sull'intelligenza artificialedentdiverse aree di rischio e i requisiti che potrebbero risolverle. Prima del lancio di tali progetti, il team di prodotto verificherà anche se i requisiti sono stati soddisfatti.
Ciò che il nuovo sistema evidenzia è che gli ingegneri che sviluppano i prodotti Meta dovranno valutare i rischi. Secondo la diapositiva, in alcuni casi, inclusi nuovi rischi o quando un di prodotto necessita di feedback aggiuntivo, i progetti saranno sottoposti a una revisione manuale eseguita da esseri umani.
Tuttavia, Zvika Krieger, ex direttore per l'innovazione di Meta fino al 2022, ha affermato che i product manager e gli ingegneri non sono esperti di privacy. "La maggior parte dei product manager e degli ingegneri non sono esperti di privacy e questo non è il fulcro del loro lavoro. Non è ciò su cui vengono valutati principalmente e non è ciò che sono incentivati a dare priorità", ha affermato. Ha anche aggiunto che alcune di queste autovalutazioni si sono trasformate in esercizi che trascurano alcuni rischi importanti.

