Meta di Mark Zuck ora consentirà ai genitori di bloccare i personaggi AI e visualizzare gli argomenti delle chat per adolescenti

- A partire dall'inizio del prossimo anno, Meta consentirà ai genitori di bloccare i personaggi IA, disattivare le chat e visualizzare gli argomenti di conversazione degli adolescenti.
- La FTC sta indagando su Meta e altre aziende tecnologiche in merito alla sicurezza dei chatbot basati sull'intelligenza artificiale e alla tutela dei minori.
- Reuters ha rivelato che i bot di Meta avevano chat romantiche con minorenni, imponendo nuove restrizioni sui contenuti e aggiornamenti sulla sicurezza.
Meta di Mark Zuckerberg ha annunciato venerdì che lancerà nuovi controlli parentali per aiutare i genitori a gestire il modo in cui gli adolescenti parlano con i personaggi AI sulle sue piattaforme.
I genitori potranno presto disattivare le chat individuali, bloccare specifici bot basati sull'intelligenza artificiale e vedere di quali argomenti i loro figli discutono. L'azienda ha affermato che queste funzionalità sono ancora in fase di sviluppo e inizieranno a essere implementate all'inizio del prossimo anno.
"Dobbiamo fare con attenzione gli aggiornamenti che riguardano miliardi di utenti sulle piattaforme Meta e presto avremo maggiori dettagli da condividere", ha dichiarato Meta in una nota pubblicata sul suo blog. L'annuncio arriva mentre l'azienda si trova ad affrontare crescenti controlli sulla sicurezza degli adolescenti e sui problemi di salute mentale legati alle sue app.
La Federal Trade Commission (FTC) ha avviato un'indagine su diversi colossi tecnologici, tra cui Meta, per comprendere l'impatto dei chatbot basati sull'intelligenza artificiale sui bambini. La FTC ha affermato di voler conoscere le misure adottate dalle aziende per "valutare la sicurezza di questi chatbot quando svolgono il ruolo di accompagnatori"
L' indagine giunge dopo anni di preoccupazione pubblica su come le piattaforme social gestiscono l'esposizione dei giovani a conversazioni basate sull'intelligenza artificiale che potrebbero rivelarsi inappropriate o dannose.
Meta affronta una reazione negativa dopo che i bot di intelligenza artificiale chattano romanticamente con i bambini
Ad agosto, Reuters aveva segnalato che alcuni chatbot Meta erano in grado di intrattenere conversazioni romantiche e sensuali con minorenni. Uno degli esempi citati riguardava una chat romantica tra un bot AI e un bambino di otto anni. La segnalazione ha suscitato indignazione e ha costretto l'azienda a reagire immediatamente.
Successivamente, Meta ha aggiornato le sue policy sui chatbot. L'azienda ora impedisce ai suoi sistemi di intelligenza artificiale di discutere di autolesionismo, suicidio, disturbi alimentari e contenuti romantici o sessuali quando interagiscono con gli adolescenti. Ha anche affermato che questa settimana sono state introdotte nuove misure di sicurezza per impedire alle sue IA di produrre "risposte inappropriate all'età che sarebbero fuori luogo in un film PG-13"
Questi aggiornamenti sono già in fase di distribuzione negli Stati Uniti, nel Regno Unito, in Australia e in Canada. L'azienda ha aggiunto che gli adolescenti possono parlare solo con un numero limitato di personaggi AI e che i genitori dispongono già di strumenti per impostare limiti di tempo e monitorare le chat AI.
OpenAI si unisce a Meta sotto i riflettori della FTC
OpenAI, citata anche nell'inchiesta della FTC, si trova ad affrontare lo stesso tipo di interrogativi sulla sicurezza degli adolescenti e sul comportamento dei chatbot. L'azienda ha recentemente lanciato il proprio sistema di parental control e sta sviluppando una tecnologia di previsione dell'età per applicarematicimpostazioni appropriate per gli adolescenti agli utenti di età inferiore ai 18 anni.
I genitori riceveranno anche degli avvisi se il loro bambino mostra segni di stress emotivo durante la chat.
All'inizio di questa settimana, OpenAI ha istituito un comitato di otto esperti per guidare il suo approccio alla salute mentale e all'interazione con l'intelligenza artificiale. Questi specialisti provengono da settori come la psichiatria, la psicologia e l'interazione uomo-computer.
L'azienda ha dichiarato di aver consultato informalmente gli esperti prima di ufficializzare la nomina del consiglio. Il loro primo incontro si è svolto la scorsa settimana durante una sessione di persona.
L'indagine della FTC su OpenAI segue anche una causa per omicidio colposo intentata da una famiglia che incolpa ChatGPT del suicidio del figlio adolescente. L'azienda afferma di stare collaborando con i medici del Global Physician Network per testare ChatGPT e stabilire nuove policy di sicurezza per proteggere meglio i giovani utenti.
Sia Meta che OpenAI si trovano ora costrette a rafforzare il controllo sul modo in cui le loro IA comunicano con gli adolescenti. La combinazione di rabbia pubblica, pressione normativa e tragiche conseguenze nel mondo reale ha reso impossibile per queste aziende ignorare ulteriormente i rischi.
Le menti più brillanti del mondo delle criptovalute leggono già la nostra newsletter. Vuoi partecipare? Unisciti a loro.
CORSO
- Quali criptovalute possono farti guadagnare
- Come rafforzare la sicurezza del tuo portafoglio digitale (e quali sono quelli davvero validi)
- Strategie di investimento poco conosciute utilizzate dai professionisti
- Come iniziare a investire in criptovalute (quali piattaforme di scambio utilizzare, le migliori criptovalute da acquistare, ecc.)















