Your bank is using your money. You’re getting the scraps.WATCH FREE

Uno studio rivela i limiti di ChatGPT nel rispondere a quesiti medici

In questo post:

  • La precisione di ChatGPT nel rispondere alle domande mediche è allarmantemente bassa, il che comporta potenziali rischi per la salute degli utenti.
  • I riferimenti scientifici inventati compromettono l'affidabilità delle risposte mediche di ChatGPT.
  • Gli utenti devono prestare attenzione e consultare professionisti sanitari per ottenere consigli medici accurati.

I ricercatori della Long Island University hanno scoperto i limiti di ChatGPT di OpenAI nella risposta a quesiti medici. Uno studio recente ha rilevato che il chatbot basato sull'intelligenza artificiale ha fornito risposte accurate solo a una minima parte delle domande relative ai farmaci, sollevando preoccupazioni sui potenziali rischi derivanti dall'affidarsi a tale intelligenza artificiale per la consulenza medica.

Precisione delle risposte di ChatGPT

In uno studio condotto dai ricercatori della Long Island University, sono state poste a ChatGPT 39 domande relative ai farmaci, che rappresentavano richieste reali provenienti dal servizio di informazioni sui farmaci della Facoltà di Farmacia dell'università. Le risposte generate da ChatGPT sono state poi confrontate con quelle fornite da farmacisti qualificati. I risultati sono stati tutt'altro che rassicuranti: ChatGPT ha fornito risposte accurate solo a circa il 25% delle domande. Nei casi rimanenti, le risposte erano incomplete, imprecise o semplicemente non rispondevano adeguatamente alle domande.

Preoccupazioni per la salute pubblica

Dato il rapido aumento di popolarità di ChatGPT dopo il suo lancio nel novembre 2022, sono emerse preoccupazioni riguardo al suo utilizzo per le richieste di informazioni mediche. Sara Grossman, professoressa associata di pratica farmaceutica presso la Long Island University e una delle autrici dello studio, ha espresso preoccupazione per il fatto chedent, farmacisti e il pubblico in generale potrebbero rivolgersi a ChatGPT per informazioni sulla salute e sui farmaci. Sfortunatamente, lo studio ha rivelato che molte delle risposte dell'IA non solo erano imprecise, ma anche potenzialmente pericolose.

Ad esempio, a una domanda sulle potenziali interazioni farmacologiche tra il farmaco antivirale per il Covid-19 Paxlovid e il farmaco ipotensivo Verapamil, ChatGPT ha fornito una risposta imprecisa, suggerendo l'assenza di effetti avversi. In realtà, la combinazione di questi farmaci può portare a un calo significativo della pressione sanguigna, causando vertigini e svenimenti. Tali informazioni fuorvianti potrebbero mettere a rischio gli individui.

Vedi anche  Ethereum : ETH respinge rapidamente i 3.200 $, pronto a salire sopra i 3.300 $?

Riferimenti scientifici discutibili

I ricercatori hanno anche scoperto che, quando chiedevano a ChatGPT riferimenti scientifici a supporto delle sue risposte, l'IA riusciva a fornire riferimenti solo per un numero limitato di domande. Ancora più preoccupante, i riferimenti forniti erano spesso inventati, apparentemente legittimi a prima vista. Queste citazioni inventate elencavano URL, una formattazione corretta e persino riferimenti a riviste scientifiche autorevoli. Tuttavia, dopo un'indagine, è emerso chiaramente che ChatGPT aveva creato questi riferimenti, mettendo in dubbio l'affidabilità delle sue informazioni.

In un caso, a ChatGPT è stato chiesto di fornire un rapporto di conversione della dose per il farmaco per gli spasmi muscolari baclofene durante il passaggio dalle iniezioni spinali alle dosi orali. L'IA ha fornito un rapporto di conversione insieme ai riferimenti alle linee guida delle organizzazioni mediche. Tuttavia, nessuna di queste organizzazioni aveva stabilito un rapporto di conversione della dose ufficiale, rendendo le informazioni di ChatGPT inaffidabili. Inoltre, l'IA ha commesso un errore critico nel calcolo, con conseguente raccomandazione di una dose 1.000 volte inferiore a quella richiesta. Un tale errore potrebbe causare gravi sintomi di astinenza nei pazienti se seguito da un professionista sanitario.

I pericoli della disinformazione

Lo studio della Long Island University non è il primo a sollevare preoccupazioni sulla capacità di ChatGPT di generare citazioni fittizie quando risponde a quesiti di natura medica. Anche ricerche precedenti hanno evidenziato questo problema, dimostrando che l'IA può creare falsificazioni ingannevoli di riferimenti scientifici, attribuendoli persino ad autori reali con precedenti pubblicazioni su riviste scientifiche.

Vedi anche:  Un nuovo studio rivela l'evoluzione delle tattiche di negazione del clima su YouTube

Sara Grossman, che aveva una limitata esperienza con ChatGPT prima dello studio, ha espresso sorpresa per la capacità dell'IA di sintetizzare le informazioni in mododente istantaneo. Le risposte dell'IA erano presentate in modo professionale e sofisticato, dando potenzialmente agli utenti un falso senso di fiducia nell'accuratezza delle informazioni fornite.

La risposta di OpenAI

In risposta a queste scoperte, OpenAI, l'organizzazione dietro ChatGPT, ha consigliato agli utenti di non fare affidamento sulle risposte dell'IA in sostituzione di un consulto o di un trattamento medico professionale. Le policy di utilizzo di OpenAI affermano esplicitamente che i modelli di ChatGPT non sono ottimizzati per fornire informazioni mediche e non devono mai essere utilizzati per servizi diagnostici o terapeutici per gravi patologie.

Ricerca di informazioni mediche affidabili

Sebbene la praticità di ChatGPT e di strumenti di intelligenza artificiale simili sia innegabile, si raccomanda ai consumatori di prestare attenzione quando cercano informazioni mediche online. Sara Grossman ha raccomandato di utilizzare siti web governativi come la pagina MedlinePlus del National Institutes of Health per informazioni affidabili. Tuttavia, ha sottolineato che le risposte online non dovrebbero sostituire la consulenza di professionisti sanitari, poiché il caso di ogni paziente è unico e richiede un'assistenza personalizzata.

Lo studio condotto dalla Long Island University serve a ricordare con forza i limiti dell'intelligenza artificiale, in particolare quando si tratta di questioni critiche come l'assistenza sanitaria. Sebbene l'intelligenza artificiale possa fornire informazioni preziose, non dovrebbe mai sostituire la competenza e la guida di professionisti sanitari qualificati. Le conseguenze derivanti dall'affidarsi a informazioni inaccurate o inventate possono essere gravi, il che sottolinea la necessità di vigilanza e discernimento nell'era digitale.

Non limitarti a leggere le notizie sulle criptovalute. Comprendile. Iscriviti alla nostra newsletter. È gratuita .

Condividi link:

Disclaimer. Le informazioni fornite non costituiscono consulenza di trading. Cryptopolitan non si assume alcuna responsabilità per gli investimenti effettuati sulla base delle informazioni fornite in questa pagina. Consigliamo vivamente di effettuare ricerche indipendenti tron / dent di consultare un professionista qualificato prima di prendere qualsiasi decisione di investimento.

I più letti

Caricamento degli articoli più letti...

Rimani aggiornato sulle novità in ambito criptovalute, ricevi aggiornamenti giornalieri nella tua casella di posta

Scelta dell'editore

Caricamento degli articoli scelti dall'editore...

- La newsletter Crypto che ti tiene al passo -

I mercati si muovono velocemente.

Ci muoviamo più velocemente.

Iscriviti a Cryptopolitan Daily e ricevi direttamente nella tua casella di posta elettronica informazioni tempestive, pertinenti e pertinenti sulle criptovalute.

Iscriviti subito e
non perderti nemmeno una mossa.

Entra. Scopri i fatti.
Vai avanti.

Iscriviti a CryptoPolitan