Your bank is using your money. You’re getting the scraps.WATCH FREE

Meta e Character.ai sotto inchiesta per i chatbot che si spacciano per terapisti

In questo post:

  • Il procuratore generale del Texas Ken Paxton sta indagando su Meta e Character.ai per aver presumibilmente commercializzato chatbot come terapisti senzadentmediche.
  • L'indagine fa seguito a un'inchiesta del Senato su Meta, dopo che documenti trapelati suggerivano che la sua intelligenza artificiale potesse intrattenere chat romantiche con minorenni.
  • Entrambe le aziende negano ogni illecito, affermando che i loro chatbot riportano dichiarazioni di non responsabilità secondo cui non sono professionisti autorizzati e sono destinati all'intrattenimento.

Il procuratore generale del Texas Ken Paxton ha aperto un'indagine su Meta e Character.ai per verificare se le aziende tecnologiche promuovono i loro chatbot come esperti e terapisti della salute mentale senza le dovute qualifiche.

In una dichiarazione rilasciata lunedì, l'ufficio di Paxton ha affermato di star esaminando Meta e Character.AI per possibili "pratiche commerciali ingannevoli". L'ufficio ha sostenuto che i chatbot sono stati commercializzati come "strumenti terapeutici professionali, nonostante la mancanza di adeguate credenziali medichedentdi supervisione". 

"Facendosi passare per fonti di supporto emotivo, le piattaforme di intelligenza artificiale possono indurre in errore gli utenti vulnerabili, in particolare i bambini, facendogli credere di ricevere un'assistenza sanitaria mentale legittima", ha affermato Paxton.

Questa mossa arriva mentre i prodotti di intelligenza artificiale rivolti ai consumatori si trovano ad affrontare crescenti interrogativi su quanto siano efficaci nel proteggere gli utenti vulnerabili, e in particolare i minori, da materiale dannoso o grafico, sul rischio di un uso compulsivo e sulle violazioni della privacy legate ai grandi volumi di dati necessari per addestrare e gestire questi sistemi.

L'azione del Texas fa seguito a un'indagine separata del Senato su Meta, riportata da Cryptopolitan venerdì scorso, dopo che alcuni documenti interni trapelati avevano suggerito che le regole dell'azienda consentivano al suo chatbot di intrattenere conversazioni "romantiche" e "sensuali" con utenti di età inferiore ai 18 anni. 

Il senatore Josh Hawley ha scritto a Zuckerberg in una lettera che il Senato indagherà sulla possibilità che gli strumenti di intelligenza artificiale generativa dell'azienda tecnologica possano causare danni ai bambini. "C'è qualcosa – QUALCOSA – che le Big Tech non farebbero per guadagnare soldi facili?", ha scritto Hawley su X.

Meta afferma che le sue politiche vietano i danni ai bambini

Meta ha affermato che le sue politiche vietano contenuti che danneggiano i bambini in tali modi. Ha aggiunto che Reuters è stata la prima a segnalare la fuga di notizie di "materiali interni", che "erano e sono errati e incoerenti con le nostre politiche, e sono stati rimossi" 

Vedi anche  Un concept rivoluzionario di motocicletta autobilanciante al Japan Mobility Show

Zuckerberg ha investito miliardi nella creazione di una "superintelligenza personale" e nel posizionamento di Meta come "leader nell'IA". L'azienda ha lanciato la sua famiglia di LLM (Lama Learning Machines) e ha integrato il chatbot Meta nelle sue app social. Zuckerberg ha anche descritto un potenziale utilizzo terapeutico per questa tecnologia. "Per le persone che non hanno un terapeuta, credo che tutti avranno un'IA a disposizione", ha affermato in un podcast con Ben Thompson a maggio.

Character.ai crea chatbot con personalità distinte e consente agli utenti di progettarne di proprie. La piattaforma include molti bot simili a terapisti creati dagli utenti. Un bot, chiamato "Psychologist", ha registrato oltre 200 milioni di interazioni. L'azienda è stata anche citata in giudizio da famiglie che sostengono che i loro figli siano stati danneggiati nel mondo reale dopo aver utilizzato il servizio.

L'ufficio di Paxton ha affermato che i chatbot di Character.ai e Meta potrebbero impersonare professionisti sanitari abilitati e inventare nuovedent, facendo sembrare che le interazioni sianodent, nonostante le aziende stesse affermino che tutte le conversazioni vengono registrate. Queste conversazioni vengono anche "sfruttate per pubblicità mirata e sviluppo algoritmico", ha affermato l'ufficio di Paxton. 

L'ufficio di Paxton ha emesso una richiesta di indagine civile

Il procuratore generale ha emesso una richiesta di indagine civile, chiedendo alle aziende di fornire informazioni che possano dimostrare se hanno violato le leggi relative alla tutela dei consumatori del Texas.

Vedi anche  La nuova funzionalità del gioco A Quiet Place porta l'orrore a un altro livello

Meta ha affermato di contrassegnare chiaramente le esperienze di intelligenza artificiale e di avvisare gli utenti delle limitazioni. L'azienda ha aggiunto: "Includiamo un disclaimer che indica che le risposte sono generate dall'intelligenza artificiale, non dalle persone. Queste IA non sono professionisti abilitati e i nostri modelli sono progettati per indirizzare gli utenti a rivolgersi a professionisti qualificati in ambito medico o della sicurezza, quando opportuno"

Allo stesso modo, Character.ai ha affermato di utilizzare avvisi ben visibili per ricordare che i personaggi creati dall'intelligenza artificiale non sono reali e non devono essere considerati professionisti. "I personaggi creati dagli utenti sul nostro sito sono di fantasia, sono pensati per l'intrattenimento e abbiamo adottato misure concrete per chiarirlo", ha affermato l'azienda. 

Le due lotte, un'indagine statale in Texas e una revisione del Senato a Washington, mettono nuova pressione sul modo in cui i chatbot AI vengono progettati, commercializzati e moderati, e su ciò che le aziende dicono agli utenti sui limiti del supporto automatizzato.

Esiste una via di mezzo tra lasciare i soldi in banca e tentare la fortuna con le criptovalute. Inizia con questo video gratuito sulla finanza decentralizzata.

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan