圣母大学的研究团队开展了一项社交媒体调查领域的研究项目,他们发现,在不同的在线平台上进行政治讨论时,公众很难区分人类和人工智能。.
该研究分为三轮,采用定制的 Mastodon 平台作为交付平台,结果表明,参与者有 58% 的时间会将 AI 机器人误认为是人类。.
研究表明,人工智能机器人模糊了政治话语中的人类界限。
在圣母大学研究计算中心 Paul Brenner 博士的指导下,调查小组采用了基于生成网络的 AI 机器人,其中包括 GPT4、Llama-2-Chat 和 Claude 2。.
这一代聊天机器人被设计成具有多样化的个性,旨在作为世界事务领域的政治参与者,并且越来越倾向于展现人类特征,参与各种政治讨论。.
它的妙处在于,每个机器人都有一个角色(具有详细个人资料的个性),并被指示将个人经历与更广泛的世界事件联系起来。.
在数据处理方面,尽管小组成员明白他们是在与人类和机器人互动,但该样本组本身约有一半人无法区分人工智能和真人。.
这一证据表明,人工智能机器人能够在对话模式方面非常接近地模仿人类,从而增加了它们被用于传播虚假信息的可能性。.
人工智能在虚假信息传播中的作用
保罗·布伦纳先生提出了诸如采用这些人工智能机器人及其可能产生的连锁反应等问题,人工智能机器人有机会影响公众舆论并可能传播虚假信息。.
他解释说,人工智能在模拟中非常有效;以至于互联网上的每个人都很容易被欺骗,从而对信息的原始来源产生误解。.
本研究的另一个重点在于对不同人工智能模型的评估,结果表明,各种语言学习模型(LLM)的准确率差异不大。由此可见,即使是不太复杂的模型,也能在社交媒体互动场景中生成足够逼真的类人对话。.
因此,布伦纳在第一行中强调了他对利用人工智能防止虚假信息传播的多维方法的立场。.
这些举措,例如教育宣传、立法行动以及更严格的社交媒体账户审核,将相互促进,最终彻底解决这个问题。此外,还将考虑人工智能对青少年心理健康的影响,并制定相应的策略来抵消这种影响。.
这项研究项目强调了人工智能与社交网络中在线信息完整性之间的不平衡,因此有必要制定综合策略来应对这种情况。.

