近年来,人工智能(AI)的出现重塑了我们生活的方方面面,从信息搜索方式到在线内容消费,无一例外。然而,这些人工智能算法中蕴含的政治倾向也引发了人们的担忧。从谷歌的Gemini到ChatGPT,一些人工智能算法表现出的左倾倾向引发了用户和专家的批评和疑虑。.
《纽约时报》的调查
《纽约时报》近期的一项调查深入探讨了为使人工智能模型与特定政治意识形态相符而需要进行的复杂校准。该报道强调了确保这些模型内部多样性的挑战,以及过度代表性可能带来的后果,包括黑人纳粹主义和亚裔纳粹主义等极端观点的出现。.
研究员大卫·罗扎多(David Rozado)展示了人工智能模型如何轻松地被定制以迎合特定的政治意识形态。他通过向 GPT-3.5-Turbo 模型输入党派信息,迅速开发出了 LeftWingGPT 和 RightWingGPT,分别从不同的意识形态光谱中汲取灵感。与公开可用的模型相比,这些模型表现出更高的政治极端主义倾向。.
值得注意的是,现有的人工智能程序主要反映左倾观点,这dent 在它们对政治论述、科学共识以及对虚假信息的 defi上的解读。用户在谷歌等平台上搜索争议性话题时,经常会遇到大量左翼观点,而其他观点则鲜有体现。.
对信息可访问性的影响
左倾人工智能对信息传播的垄断引发了人们对多元观点可能被扼杀的担忧。与用户可以从多个结果中进行选择的搜索引擎不同,人工智能工具通常每个查询只提供一个答案,这会影响用户的认知,并限制他们接触不同观点的机会。.
尽管存在公认的风险,但仍有人对人工智能在信息获取中的作用持乐观态度。各种人工智能平台的涌现有望丰富信息来源,促进开放的讨论。随着 Julius AI 和 RightWingGPT 等平台逐渐获得 trac,用户可能会倾向于选择与自身意识形态相符的平台,这预示着信息获取和辩论的新时代即将到来。.
随着人工智能不断重塑数字格局,政治偏见问题依然是一个亟待解决的难题。人工智能算法中左倾观点的主导地位引发了人们对信息公正性及其对社会讨论潜在影响的质疑。然而,竞争性人工智能模型的出现为构建一个更加多元包容的信息生态系统带来了希望。这种转变究竟会带来更理性的讨论,还是会加剧社会两极分化,仍有待观察。但有一点可以肯定:人工智能的政治倾向在未来几年仍将是人们争论和审视的焦点。.

