Gli esperti svedesi di intelligenza artificiale hanno creato un chatbot chiamato Laika 13, che imita le azioni di un adolescente dipendente dai social media, come strumento unico per combattere la dipendenza da Internet tra gli adolescenti. La crescita di Laika coincide con una crescente consapevolezza dei danni che l'uso eccessivo dei social media causa alla salute mentale degli adolescenti.
Prendere di mira la dipendenza da Internet tra gli adolescenti
I neuroscienziati svedesi e gli specialisti di intelligenza artificiale dietro Laika 13 hanno creato il gioco per evidenziare i possibili effetti negativi dell'utilizzo prolungato dei social media. I creatori di Laika mirano a educare i giovani sui rischi della dipendenza da Internet, alla luce delle ricerche che dimostrano un legame tra l'uso dei social media e problemi di salute mentale, tra cui ansia e tristezza.
I risultati preliminari del programma di test Laika indicano risultati incoraggianti: dopo l'interazione con il chatbot, il 75% dei 60.000dentpartecipanti ha espresso il desiderio di modificare la propria connessione con i social media. Glidentstanno riflettendo sulle proprie azioni online grazie alla capacità di Laika di imitare i pensieri interiori e le ansie di un adolescente problematico.
Tuttavia, permangono preoccupazioni riguardo all'efficacia a lungo termine del programma e al suo potenziale impatto sui giovani utenti vulnerabili. Mentre i sostenitori sostengono che interventi come Laika siano convenienti e colmino una lacuna nell'istruzione tradizionale, gli scettici mettono in discussione le implicazioni etiche dell'uso dell'intelligenza artificiale con i bambini, in assenza di prove conclusive della sua efficacia.
Considerazioni etiche e potenziali rischi
Julia Stoyanovich, direttrice del Center for Responsible AI della New York University, si preoccupa delle implicazioni etiche dell'utilizzo di modelli di intelligenza artificiale notevolmente simili agli esseri umani in presenza di bambini facilmente influenzabili. Mette in guardia dai pericoli dell'antropomorfizzazione dei robot, citando esempi del passato in cui sistemi di intelligenza artificiale avanzati sono stati erroneamente interpretati come dotati di caratteristiche umane, con effetti indesiderati.
Stoyanovich evidenzia i possibili pericoli derivanti dalla raccolta e dallo sfruttamento di dati sensibili dei minori, sottolineando l'importanza di considerare le problematiche relative alla protezione dei dati nell'ambito della tecnologia di intelligenza artificiale generativa. Poiché i sistemi di intelligenza artificiale sono intrinsecamente imprevedibili, sussistono dubbi sulla loro capacità di proteggere la privacy degli utenti, nonostante le garanzie fornite dai creatori sui protocolli di sicurezza dei dati.
Il dibattito sull'opportunità o meno di utilizzare l'intelligenza artificiale per trattare la dipendenza dai social media negli adolescenti è ancora in corso, mentre Laika interagisce condente insegnanti. Nonostante i sostenitori affermino che possa aumentare la consapevolezza e promuovere sane abitudini digitali, lo scetticismo mette in guardia dalle difficoltà etiche e pratiche nell'implementare l'intelligenza artificiale con gruppi vulnerabili.
Iniziative come Laika dipendono in ultima analisi dalla ricerca continua, dall'apertura e dalla cooperazione tra sviluppatori, educatori e professionisti della salute mentale per avere successo. Per proteggere la resilienza e la salute delle generazioni future, è fondamentale che la società continui a cercare soluzioni efficaci per affrontare le complessità della tecnologia digitale e i suoi effetti sulla salute mentale.

