Secondo un rapporto di Bloomberg, Meta Platforms Inc., la società madre di Meta, Instagram e WhatsApp, sta affrontando le critiche delle organizzazioni di difesa dei diritti e degli esperti di sicurezza dei bambini, che stanno sollecitando l'azienda ad annullare i suoi piani di consentire ai minori di accedere al suo nuovo di realtà , Horizon Worlds.
Problemi di sicurezza dei bambini nel Metaverso
Guidata da gruppi per la sicurezza online come Fairplay, Center for Countering Digital Hate e Common Sense Media, una lettera indirizzata al CEO di Meta Mark Zuckerberg evidenzia i potenziali rischi e pericoli per bambini e adolescenti nel mondo virtuale.
Questi gruppi sostengono che i minori potrebbero essere esposti a molestie e violazioni della privacy, soprattutto perché l'app è ancora in fase iniziale. Esortano l'azienda ad attendere ulteriori ricerche sottoposte a revisione paritaria sui potenziali rischi associati al metaverso prima di consentire a bambini e adolescenti di accedervi.
Un rapporto di marzo del Center for Countering Digital Hate ha rivelato che gli utenti di età inferiore ai 18 anni hanno già subito molestie da parte di adulti sull'app.
Nel corso di 100 visite ai mondi più popolari di Horizon Universe, i ricercatori del centro hanno assistito a 19 episodi di abusi da parte di adulti nei confronti di minori, tra cui molestie sessuali.
La risposta di Meta e i piani futuri
Joe Osborne, portavoce di Meta, ha dichiarato che prima di rendere Horizon Worlds accessibile agli adolescenti, l'azienda metterà in atto ulteriori protezioni e strumenti per offrire esperienze adatte all'età.
Meta incoraggia genitori e tutori a utilizzare strumenti di supervisione parentale, come la gestione dell'accesso alle app, per garantire esperienze sicure ai propri figli. Attualmente, l'età minima richiesta per l'app Metaverse è 18 anni.
Nonostante le rassicurazioni di Meta, l'azienda è stata sottoposta a un'ampia analisi degli effetti dei suoi prodotti sulla salute mentale dei giovani consumatori.
Nel 2021, un informatore di Facebook ha accusato l'azienda di dare priorità ai profitti rispetto alla sicurezza e di non proteggere i bambini, in particolare le adolescenti che trascorrevano troppo tempo su Instagram.
La ricerca sull'argomento resta divisa: alcuni studi collegano alti livelli di coinvolgimento sui social media alla depressione nei minori, mentre altri riscontrano una correlazione scarsa.
Crescente pressione su Meta
I difensori della sicurezza dei minori e gli osservatori di Internet hanno chiesto a Mark Zuckerberg di bloccare i piani che consentirebbero ai bambini di età compresa tra 13 e 17 anni di accedere al mondo virtuale.
Una coalizione di 36 gruppi di difesa digitale, tra cui Fair Play for Kids e Common Sense Media, ha avvertito che l'universo virtuale potrebbe amplificare gli aspetti peggiori dei social media per gli utenti adolescenti.
Sostenevano che le app di realtà virtuale su Horizon Worlds di Meta erano già piene di contenuti potenzialmente offensivi.
Nella lettera a Zuckerberg si legge: "I genitori rimarrebbero scioccati nello scoprire cosa succede dietro le porte chiuse di Horizon Worlds, dove bambini e adolescenti vengono aggrediti con comportamenti offensivi e contenuti dannosi"
Meta ha investito miliardi in tecnologia e prodotti VR come Quest Pro, con Horizon Worlds come app di realtà virtuale di punta per il visore. Sebbene l'app sia attualmente riservata agli utenti di età superiore ai 18 anni, altre app sono indicate come adatte a utenti di età pari o superiore ai 13 anni.
Mentre prosegue il dibattito sulla sicurezza dei bambini e degli adolescenti nel mondo virtuale, resta da vedere come l'azienda affronterà queste preoccupazioni e garantirà il benessere dei suoi giovani utenti.
L'Italia prende provvedimenti contro Meta dopo il divieto di ChatGPT