长岛大学的研究人员发现,OpenAI 的 ChatGPT 在回答医疗问题方面存在局限性。一项最新研究发现,这款人工智能聊天机器人仅能对极少数与药物相关的查询提供准确答案,这引发了人们对依赖此类人工智能提供医疗建议的潜在风险的担忧。.
ChatGPT 回答的准确性
长岛大学的研究人员进行了一项研究,他们向ChatGPT提出了39个与药物相关的问题,这些问题代表了该大学药学院药物信息服务中心收到的真实咨询。随后,研究人员将ChatGPT生成的答案与训练有素的药剂师提供的答案进行了比较。结果令人担忧,ChatGPT仅对约25%的问题给出了准确答案。其余问题的答案要么不完整,要么不准确,要么根本没有充分回答问题。.
对公共卫生的担忧
自2022年11月发布以来,ChatGPT迅速走红,人们开始担忧其在医疗咨询方面的应用。长岛大学药学实践副教授、该研究的作者之一萨拉·格罗斯曼(Sara Grossman)表示,她担心dent、药剂师和公众可能会依赖ChatGPT获取健康和药物相关信息。然而,研究表明,该人工智能的许多回答不仅不准确,而且可能存在潜在危险。.
例如,在关于新冠病毒抗病毒药物帕克洛维(Paxlovid)和降血压药物维拉帕米(Verapamil)之间潜在药物相互作用的问题中,ChatGPT 给出了不准确的答案,暗示不会产生不良反应。但实际上,同时服用这两种药物会导致血压显著下降,引起头晕和昏厥。这种误导性信息可能会使人们面临风险。.
可疑的科学参考文献
研究人员还发现,当他们要求 ChatGPT 提供科学参考文献来支持其回答时,该人工智能只能针对有限数量的问题提供参考文献。更令人担忧的是,这些参考文献往往是伪造的,乍一看似乎合情合理。这些伪造的引用包含网址、格式规范,甚至引用了知名的科学期刊。然而,经过调查后,研究人员发现这些参考文献均由 ChatGPT 自行编造,这令人对其信息的可靠性产生怀疑。.
在一次案例中,ChatGPT被要求提供肌肉痉挛药物巴氯芬从脊髓注射过渡到口服时的剂量转换比率。该人工智能提供了一个转换率,并引用了医疗机构的指南。然而,这两个机构均未制定官方的剂量转换比率,因此ChatGPT提供的信息不可靠。此外,该人工智能在计算中出现了一个严重错误,导致推荐剂量比所需剂量低1000倍。如果医护人员遵循这样的错误剂量,可能会导致患者出现严重的戒断症状。.
虚假信息的危害
长岛大学的这项研究并非首个对ChatGPT在回答医学问题时生成虚假引用的能力提出质疑的研究。此前的研究也强调了这一问题,表明该人工智能可以伪造具有欺骗性的科学参考文献,甚至将其归于曾在科学期刊上发表过文章的真实作者名下。.
在参与这项研究之前,Sara Grossman 对 ChatGPT 的使用经验有限,她对人工智能能够瞬间dent地综合信息感到惊讶。人工智能的回复以专业且老练的方式呈现,这可能会让用户对所提供信息的准确性产生错误的信任感。.
OpenAI的回应
针对这些发现,ChatGPT背后的开发机构OpenAI建议用户不要将AI的回复作为专业医疗建议或治疗的替代品。OpenAI的使用政策明确指出,ChatGPT的模型并未经过优化以提供医疗信息,绝不应用于严重疾病的诊断或治疗。.
寻求可靠的医疗信息
ChatGPT 和类似的 AI 工具固然方便,但消费者在网上查找医疗信息时仍需谨慎。萨拉·格罗斯曼建议使用美国国立卫生研究院 (NIH) 的 MedlinePlus 等政府网站获取权威信息。不过,她强调,网上答案不应取代医疗专业人员的指导,因为每位患者的情况都独一无二,需要个性化的治疗。.
长岛大学的这项研究有力地提醒我们人工智能的局限性,尤其是在医疗保健等关键领域。虽然人工智能可以提供有价值的信息,但它绝不能取代合格医疗专业人员的专业知识和指导。依赖不准确或捏造的信息可能会造成严重后果,这凸显了在数字时代保持警惕和辨别力的必要性。.

