最新ニュース
あなたへのおすすめ
週刊
トップの座を維持する

最高の仮想通貨情報をあなたの受信トレイに直接お届けします。.

ChatGPTの医療質問回答における限界を研究が明らかに

によるジョン・パーマージョン・パーマー
読了時間3分
チャットGPT
  • ChatGPT の医療に関する質問への回答精度は驚くほど低く、ユーザーの健康に潜在的なリスクをもたらす可能性があります。.
  • 捏造された科学的参考文献は、ChatGPT の医学的対応の信頼性を損ないます。.
  • ユーザーは注意を払い、正確な医学的アドバイスを得るために医療専門家に相談する必要があります。.

ロングアイランド大学の研究者たちは、OpenAIのChatGPTが医療に関する質問に対応する際の限界を明らかにしました。最近の研究では、このAIチャットボットが正確な回答を返したのは薬に関する質問のごく一部に過ぎないことが明らかになり、医療アドバイスにこのようなAIを利用することの潜在的なリスクに対する懸念が高まっています。.

ChatGPTの応答の正確さ

ロングアイランド大学の研究者らが実施した研究では、ChatGPTに39件の薬に関する質問が提示されました。これは、同大学の薬学部の医薬品情報サービスからの実際の問い合わせを再現したものです。ChatGPTが生成した回答は、訓練を受けた薬剤師による回答と比較されました。その結果は、ChatGPTが正確な回答を返したのは質問の約25%に過ぎず、決して安心できるものではありませんでした。残りの回答は、不完全、不正確、あるいは質問に十分に答えていないものでした。.

公衆衛生への懸念

ChatGPTは2022年11月のリリース以降、急速に人気が高まっており、医療関連の問い合わせへの利用に関する懸念が浮上しています。ロングアイランド大学の薬学実務准教授であり、本研究の著者の一人であるサラ・グロスマン氏は、dent、薬剤師、そして一般の人々が健康や薬に関する情報を求めてChatGPTを利用するのではないかと懸念を表明しました。しかし残念ながら、この研究では、AIの回答の多くが不正確であるだけでなく、潜在的に危険であることが明らかになりました。.

例えば、新型コロナウイルス感染症の抗ウイルス薬パクスロビドと血圧降下薬ベラパミルの潜在的な薬物相互作用に関する質問に対し、ChatGPTは不正確な回答を提示し、副作用はないと示唆しました。実際には、これらの薬剤を併用すると血圧が著しく低下し、めまいや失神を引き起こす可能性があります。このような誤解を招く情報は、個人を危険にさらす可能性があります。.

疑わしい科学的言及

研究者たちはまた、ChatGPTに回答を裏付ける科学的参考文献を尋ねたところ、AIが提供できたのは限られた質問のみであることも発見しました。さらに懸念されるのは、提供された参考文献の多くが捏造されたもので、一見すると正当なものに見えることです。これらの捏造された引用文献にはURLが記載され、適切なフォーマットで、さらには評判の高い科学雑誌への言及さえありました。しかし、調査の結果、これらの参考文献はChatGPTが作成したものであることが明らかになり、情報の信頼性に疑問が生じました。.

ある事例では、ChatGPTは、筋痙攣治療薬バクロフェンの脊髄注射から経口投与への移行時の用量換算比を提示するよう求められました。AIは、医療機関のガイダンスを参照しながら換算比を提示しました。しかし、これらの医療機関はいずれも公式の用量換算比を定めていなかったため、ChatGPTの情報は信頼性に欠けていました。さらに、AIは計算に重大な誤りを犯し、推奨用量が必要とされる用量の1,000分の1にまで低下しました。このような誤りは、医療従事者が従った場合、患者に重度の離脱症状を引き起こす可能性があります。.

誤情報の危険性

ロングアイランド大学の研究は、ChatGPTが医療関連の問い合わせに回答する際に架空の引用を生成する能力について懸念を提起した最初の研究ではありません。以前の研究でもこの問題が指摘されており、AIが科学的参考文献を偽造し、科学雑誌に論文を発表している実在の著者に帰属させる可能性があることが示されています。.

研究前にChatGPTの使用経験が限られていたサラ・グロスマン氏は、AIが瞬時に情報をdentに統合する能力に驚きを表明した。AIの回答は専門的で洗練された方法で提示されており、提供された情報の正確性についてユーザーに誤った信頼感を与えてしまう可能性があった。.

OpenAIの対応

これらの調査結果を受けて、ChatGPTを開発したOpenAIは、ユーザーに対し、AIの回答を専門的な医学的アドバイスや治療の代わりとして利用しないよう勧告しました。OpenAIの利用ポリシーでは、ChatGPTのモデルは医療情報を提供するために微調整されておらず、深刻な病状の診断や治療には決して使用すべきではないと明記されています。.

信頼できる医療情報を求めて

ChatGPTや類似のAIツールの利便性は否定できないものの、消費者はオンラインで医療情報を探す際には注意を払うよう促されています。サラ・グロスマン氏は、信頼できる情報を得るために、国立衛生研究所のMedlinePlusページのような政府のウェブサイトを利用することを推奨しました。しかし、患者一人ひとりのケースはそれぞれ異なり、個別化されたケアが必要であるため、オンラインでの回答が医療専門家の指導に取って代わるべきではないと強調しました。.

ロングアイランド大学が実施したこの研究は、特に医療のような重要な問題においては、AIの限界を如実に示しています。AIは貴重な情報を提供し得ますが、資格を有する医療専門家の専門知識や指導に取って代わるべきではありません。不正確または捏造された情報に頼ることの結末は深刻であり、デジタル時代における警戒と識別力の重要性を浮き彫りにしています。.

最も賢い暗号通貨マインドを持つ人々はすでに私たちのニュースレターを読んでいます。参加してみませんか?ぜひ ご参加ください

この記事を共有する

免責事項。 提供される情報は取引アドバイスではありません。Cryptopolitan.com Cryptopolitan、 このページで提供される情報に基づいて行われた投資について一切の責任を負いません。tronお勧めしますdent 調査や資格のある専門家への相談を

もっと…ニュース
ディープ クリプト
速習コース