Il procuratore generale del Texas Ken Paxton ha aperto un'indagine su Meta e Character.ai per verificare se le aziende tecnologiche promuovono i loro chatbot come esperti e terapisti della salute mentale senza le dovute qualifiche.
In una dichiarazione rilasciata lunedì, l'ufficio di Paxton ha affermato di star esaminando Meta e Character.AI per possibili "pratiche commerciali ingannevoli". L'ufficio ha sostenuto che i chatbot sono stati commercializzati come "strumenti terapeutici professionali, nonostante la mancanza di adeguate credenziali medichedentdi supervisione".
"Facendosi passare per fonti di supporto emotivo, le piattaforme di intelligenza artificiale possono indurre in errore gli utenti vulnerabili, in particolare i bambini, facendogli credere di ricevere un'assistenza sanitaria mentale legittima", ha affermato Paxton.
Questa mossa arriva mentre i prodotti di intelligenza artificiale rivolti ai consumatori si trovano ad affrontare crescenti interrogativi su quanto siano efficaci nel proteggere gli utenti vulnerabili, e in particolare i minori, da materiale dannoso o grafico, sul rischio di un uso compulsivo e sulle violazioni della privacy legate ai grandi volumi di dati necessari per addestrare e gestire questi sistemi.
L'azione del Texas fa seguito a un'indagine separata del Senato su Meta, riportata da Cryptopolitan venerdì scorso, dopo che alcuni documenti interni trapelati avevano suggerito che le regole dell'azienda consentivano al suo chatbot di intrattenere conversazioni "romantiche" e "sensuali" con utenti di età inferiore ai 18 anni.
Il senatore Josh Hawley ha scritto a Zuckerberg in una lettera che il Senato indagherà sulla possibilità che gli strumenti di intelligenza artificiale generativa dell'azienda tecnologica possano causare danni ai bambini. "C'è qualcosa – QUALCOSA – che le Big Tech non farebbero per guadagnare soldi facili?", ha scritto Hawley su X.
C'è qualcosa – QUALSIASI COSA – che le Big Tech non farebbero per un guadagno facile? Ora scopriamo che i chatbot di Meta erano programmati per intrattenere conversazioni esplicite e "sensuali" con bambini di 8 anni. È disgustoso. Sto avviando un'indagine completa per ottenere risposte. Big Tech: lasciate in pace i nostri figli pic.twitter.com/Ki0W94jWfo
— Josh Hawley (@HawleyMO) 15 agosto 2025
Meta afferma che le sue politiche vietano i danni ai bambini
Meta ha affermato che le sue politiche vietano contenuti che danneggiano i bambini in tali modi. Ha aggiunto che Reuters è stata la prima a segnalare la fuga di notizie di "materiali interni", che "erano e sono errati e incoerenti con le nostre politiche, e sono stati rimossi"
Zuckerberg ha investito miliardi nella creazione di una "superintelligenza personale" e nel posizionamento di Meta come "leader nell'IA". L'azienda ha lanciato la sua famiglia di LLM (Lama Learning Machines) e ha integrato il chatbot Meta nelle sue app social. Zuckerberg ha anche descritto un potenziale utilizzo terapeutico per questa tecnologia. "Per le persone che non hanno un terapeuta, credo che tutti avranno un'IA a disposizione", ha affermato in un podcast con Ben Thompson a maggio.
Character.ai crea chatbot con personalità distinte e consente agli utenti di progettarne di proprie. La piattaforma include molti bot simili a terapisti creati dagli utenti. Un bot, chiamato "Psychologist", ha registrato oltre 200 milioni di interazioni. L'azienda è stata anche citata in giudizio da famiglie che sostengono che i loro figli siano stati danneggiati nel mondo reale dopo aver utilizzato il servizio.
L'ufficio di Paxton ha affermato che i chatbot di Character.ai e Meta potrebbero impersonare professionisti sanitari abilitati e inventare nuovedent, facendo sembrare che le interazioni sianodent, nonostante le aziende stesse affermino che tutte le conversazioni vengono registrate. Queste conversazioni vengono anche "sfruttate per pubblicità mirata e sviluppo algoritmico", ha affermato l'ufficio di Paxton.
L'ufficio di Paxton ha emesso una richiesta di indagine civile
Il procuratore generale ha emesso una richiesta di indagine civile, chiedendo alle aziende di fornire informazioni che possano dimostrare se hanno violato le leggi relative alla tutela dei consumatori del Texas.
Meta ha affermato di contrassegnare chiaramente le esperienze di intelligenza artificiale e di avvisare gli utenti delle limitazioni. L'azienda ha aggiunto: "Includiamo un disclaimer che indica che le risposte sono generate dall'intelligenza artificiale, non dalle persone. Queste IA non sono professionisti abilitati e i nostri modelli sono progettati per indirizzare gli utenti a rivolgersi a professionisti qualificati in ambito medico o della sicurezza, quando opportuno"
Allo stesso modo, Character.ai ha affermato di utilizzare avvisi ben visibili per ricordare che i personaggi creati dall'intelligenza artificiale non sono reali e non devono essere considerati professionisti. "I personaggi creati dagli utenti sul nostro sito sono di fantasia, sono pensati per l'intrattenimento e abbiamo adottato misure concrete per chiarirlo", ha affermato l'azienda.
Le due lotte, un'indagine statale in Texas e una revisione del Senato a Washington, mettono nuova pressione sul modo in cui i chatbot AI vengono progettati, commercializzati e moderati, e su ciò che le aziende dicono agli utenti sui limiti del supporto automatizzato.

