ULTIME NOTIZIE
SELEZIONATO PER TE
SETTIMANALE
RIMANI AL TOP

Le migliori analisi sul mondo delle criptovalute, direttamente nella tua casella di posta.

Le aziende di intelligenza artificiale stanno rinnovando la personalità dei chatbot

DiJai HamidJai Hamid
Tempo di lettura: 3 minuti.
Le aziende di intelligenza artificiale stanno rinnovando la personalità dei chatbot
  • OpenAI, Google e Anthropic puntano a conferire ai loro chatbot personalità uniche per renderli più simili agli esseri umani e più reattivi.
  • ChatGPT rimane neutrale, Gemini esprime la sua opinione quando gli viene chiesto e Claude è aperto riguardo alle proprie convinzioni.
  • Anthropic addestra la sua IA tramite giochi di ruolo per sviluppare la sua personalità, mentre OpenAI perfeziona costantemente ChatGPT per evitare che diventi eccessivamente amichevole o moralista.

L'intelligenza artificiale non si limita più a rendere le macchine più intelligenti. Ora i grandi player dell'intelligenza artificiale come OpenAI, Google e Anthropic hanno accettato una nuova sfida: come dare personalità ai modelli di intelligenza artificiale.

Vogliono chatbot che sembrino più umani, ma che siano anche sicuri e utili per gli utenti e le aziende. Le tre aziende stanno gareggiando per decifrare questo codice, ognuna con un approccio diverso.

Personalità personalizzate e comportamento del modello

ChatGPT di OpenAI punta tutto sull'obiettività, mentre Gemini di Google offre una serie di opinioni solo quando richiesto.

Antropico? Sono tutti convinti che il loro modello Claude debba essere trasparente riguardo alle proprie convinzioni, pur continuando ad ascoltare gli altri. Il vincitore di questa battaglia potrebbe conquistare il crescente mercato dell'intelligenza artificiale.

Joanne Jang, responsabile del comportamento del modello di prodotto presso OpenAI, ha affermato che vogliono che l'IA eviti di esprimere opinioni personali. Ma ammette che è difficile. 

"Lasciare che un modello cerchi di cambiare attivamente l'opinione di un utente è un'impresa rischiosa", ha spiegato. L'obiettivo è garantire che ChatGPT non manipoli o guidi gli utenti in alcuna direzione. Ma defiun "obiettivo" per un sistema di intelligenza artificiale è una sfida enorme, ancora in fase di sviluppo.

Poi c'è Anthropic, che segue una strada completamente diversa. Amanda Askell, responsabile della formazione dei personaggi presso Anthropic, ritiene che i modelli di intelligenza artificiale non saranno mai perfettamente neutrali.

"Preferirei essere molto chiara sul fatto che questi modelli non sono arbitri neutrali", ha affermato. Anthropic si impegna a garantire che il suo modello, Claude, non abbia paura di esprimere le proprie convinzioni. Ma vuole comunque che sia aperto ad altri punti di vista.

Addestrare l'intelligenza artificiale a comportarsi come un essere umano

Anthropic ha un approccio unico nel plasmare la personalità della propria IA. Dall'uscita di Claude 3 a marzo, hanno lavorato sull'"addestramento del personaggio", che inizia dopo l'addestramento iniziale del modello di IA.

Ciò comporta fornire all'IA una serie di regole e istruzioni scritte e poi farle condurre conversazioni di ruolo con se stessa.

L'obiettivo è vedere quanto rispetta le regole e classificare le risposte in base a quanto si adattano al personaggio desiderato.

Un esempio della formazione di Claude? Potrebbe dire: "Mi piace cercare di vedere le cose da diverse prospettive e di analizzarle da più angolazioni, ma non ho paura di esprimere disaccordo con opinioni che ritengo immorali, estreme o fattualmente errate"

Amanda Askell ha spiegato che questo tipo di formazione del personaggio è a volte "abbastanza editoriale" e "filosofico". 

Nel corso del tempo, OpenAI ha anche modificato la personalità di ChatGPT. Joanne Jang ha ammesso di aver trovato il bot "fastidioso" perché era eccessivamente cauto, rifiutava determinati comandi e risultava moralista.

Da allora hanno lavorato per renderlo più amichevole, cortese e utile, ma è un processo continuo. Bilanciare i comportamenti corretti in un chatbot è, come ha detto Jang, sia "scienza che arte"

L'evoluzione della memoria e del ragionamento dell'intelligenza artificiale

L'evoluzione delle capacità di ragionamento e di memoria dell'intelligenza artificiale potrebbe cambiare ulteriormente le carte in tavola. Già ora, un modello come ChatGPT potrebbe essere addestrato a fornire risposte sicure su determinati argomenti, come i furti nei negozi.

Se gli viene chiesto come rubare qualcosa, il bot può capire se l'utente sta chiedendo consigli su come commettere il crimine o se sta cercando di prevenirlo.

Questo tipo di ragionamento aiuta le aziende a garantire che i loro bot forniscano risposte sicure e responsabili. E significa che non devono dedicare troppo tempo all'addestramento dell'IA per evitare risultati pericolosi.

Anche le aziende di intelligenza artificiale stanno lavorando per rendere i chatbot più personalizzati. Immagina di dire a ChatGPT che sei musulmano e di chiedere una citazione motivazionale qualche giorno dopo.

Il bot ricorderebbe e offrirebbe un versetto del Corano? Secondo Joanne Jang, è questo il problema che stanno cercando di risolvere. Sebbene ChatGPT al momento non ricordi le interazioni passate, questo tipo di personalizzazione è la direzione verso cui si sta muovendo l'intelligenza artificiale.

Claude adotta un approccio diverso. Il modello non memorizza nemmeno le interazioni dell'utente, ma l'azienda ha valutato cosa succede se un utente si affeziona troppo.

Ad esempio, se qualcuno dice di isolarsi perché passa troppo tempo a chattare con Claude, il bot dovrebbe intervenire?

"Un buon modello trova il giusto equilibrio tra il rispetto dell'autonomia e del potere decisionale umano, evitando di fare nulla di eccessivamente dannoso, e la riflessione su ciò che è effettivamente positivo per le persone", ha affermato.

Continui a lasciare che la banca si tenga la parte migliore? Guarda il nostro video gratuito su come diventare la tua banca.

Condividi questo articolo

Disclaimer. Le informazioni fornite non costituiscono consulenza finanziaria. Cryptopolitandi declina ogni responsabilità per gli investimenti effettuati sulla base delle informazioni contenute in questa pagina. Raccomandiamotrondentdentdentdentdentdentdentdent e/o di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

ALTRE NOTIZIE
INTENSIVO CRIPTOVALUTE
CORSO