Meta ha annunciato che disabiliterà l'accesso di tutti gli adolescenti ai suoi personaggi IA su tutte le app, in tutto il mondo.
"A partire dalle prossime settimane, gli adolescenti non potranno più accedere ai personaggi AI nelle nostre app finché l'esperienza aggiornata non sarà pronta", ha scritto Meta in un post sul blog.
L'azienda ha dichiarato in un post aggiornato sul blog che questa regola riguarda chiunque abbia fornito la data di nascita di un adolescente e coloro che affermano di essere adulti ma che sono sospettati di essere adolescenti in base alla loro tecnologia di previsione dell'età.
Meta ha interrotto l'accesso quando i genitori hanno chiesto informazioni più chiare e un maggiore controllo sulle interazioni dei loro figli adolescenti con l'intelligenza artificiale.
L'azienda aveva pianificato di rilasciare queste funzionalità quest'anno, ma ha deciso di disattivare completamente i personaggi IA.
Meta pianifica personaggi AI specifici per età
L'azienda punta a creare un personaggio AI speciale, pensato appositamente per gli adolescenti. Meta ha affermato che i nuovi personaggi AI per adolescenti includeranno il controllo parentale.
I nuovi personaggi forniranno risposte adatte all'età e si concentreranno su istruzione, sport e hobby.
A ottobre, Meta ha introdotto il controllo parentale per personalizzare il modo in cui gli adolescenti interagiscono con l'intelligenza artificiale sulle sue app. Le nuove funzionalità limitavano la visione di scene di violenza estrema, nudità e uso esplicito di droghe, ispirandosi alla classificazione PG-13.
Pochi giorni dopo, l'azienda ha introdotto strumenti per la gestione dei personaggi IA, in modo che genitori e tutori possano traci soggetti e limitare l'accesso a personaggi specifici. Meta ha affermato che i genitori possono disattivare completamente le chat con personaggi IA.
Giovedì, Wired ha affermato che Meta ha tentato di limitare la raccolta di informazioni sugli effetti dei social media sulla salute mentale degli adolescenti e sui relativi report.
L'azienda vuole rimuovere qualsiasi riferimento a un recente caso di suicidio di un adolescente collegato ai social media, nonché riferimenti alle finanze di Meta, alle attività dei dipendenti e agli anni di Mark Zuckerberg ad Harvard.
La decisione di Meta di bloccare i personaggi IA adolescenti avviene poco prima di un processo nel New Mexico, dove Meta dovrà rispondere di accuse per non aver protetto i bambini sulle sue app.
Si sostiene che Meta non abbia tutelato i minori contro l'adescamento online, il traffico e gli abusi sessuali sui suoi siti.
Meta ha dichiarato nelle istanze preliminari che la giuria avrebbe dovuto decidere solo se Meta avesse violato l'Unfair Practices Act del New Mexico in materia di sicurezza dei minori e salute mentale dei giovani.
Altri problemi come presunte interferenze elettorali, disinformazione o violazioni della privacy non dovrebbero essere presi in considerazione.
Oltre al caso del New Mexico, la prossima settimana Meta dovrà affrontare un processo per aver causato dipendenza dai social media.
La querelante diciannovenne, nota come KGM, ha affermato che l'algoritmo della piattaforma ha causato dipendenza e danneggiato la sua salute mentale.
È probabile che l'amministratore delegato Mark Zuckerberg testimoni una volta iniziato il processo.
Le piattaforme online restringono l'accesso degli adolescenti
Le piattaforme di social media e le aziende di intelligenza artificiale hanno cambiato l'esperienza degli adolescenti a causa delle cause legali che li accusavano di aver contribuito all'autolesionismo.
Il 20 gennaio, OpenAI ha introdotto funzionalità di previsione dell'età in ChatGPT per rilevare e migliorare le misure di sicurezza per gli utenti più giovani.
Il modello di previsione dell'età di ChatGPT analizza i dati comportamentali e dell'account, come l'età dichiarata dall'utente, l'età dell'account, i tempi di attività e le tendenze di utilizzo.
La scorsa settimana, TikTok ha introdotto in Europa la tecnologia AI per rilevare ed eliminare gli account degli utenti di età inferiore ai 13 anni.
Il sistema di controllo dell'età basato sull'intelligenza artificiale esamina i dettagli del profilo, i clip e le abitudini di pubblicazione perdentgli account minorenni. La funzionalità sarà implementata nelle prossime settimane.
Altre piattaforme online come Instagram, YouTube, TikTok e Roblox hanno adottato misure di limitazione dell'età.

