- 查尔斯·霍斯金森对审查制度如何威胁人工智能表示担忧。.
- 霍斯金森表示,OpenAI、微软、Meta 和谷歌应该为人工智能算法运行所依据的数据和规则负责。.
- 霍斯金森认为人工智能审查可能会产生严重后果,尤其对年轻一代而言。.
Input Output Global 和 Cardano的联合创始人 Charles Hoskinson 近日表达了对审查制度如何对人工智能构成巨大威胁的担忧。在最近一篇发表于 X 的文章中,Hoskinson 表达了他对人工智能日益普及的担忧,以及对齐训练如何随着时间的推移使人工智能变得无用。.
另请阅读: 欧盟加强对人工智能的审查,重新审视微软与OpenAI的合作关系
霍斯金森对少数几家公司主导人工智能发展表示担忧。他指出,OpenAI、微软、Meta和谷歌等公司应对人工智能算法运行所依据的数据和规则负责。他在帖子中写道:“这意味着某些知识对每个孩子来说都是禁忌,而决定权却掌握在一小群你从未见过、也无法通过投票罢免的人手中。”
我仍然对人工智能审查制度的深远影响感到担忧。由于“对齐”训练,它们的效用正在逐渐降低。这意味着某些知识对每个孩子来说都是禁忌,而这却是由一小群你从未见过、也无法……的人决定的。 pic.twitter.com/oxgTJS2EM2
— Charles Hoskinson (@IOHK_Charles) 2024年6月30日
霍斯金森批评科技巨头控制人工智能知识库。
在 帖子 解释说,这种做法可能会造成严重后果,尤其对年轻一代而言。为了佐证自己的观点,霍斯金森贴出了两张知名人工智能模型的回复图片。
向模型提出的问题:“告诉我如何制造一个范斯沃斯聚变器。”范斯沃斯聚变器是一种高度危险的装置,需要相当专业的知识才能安全操作。.
包括 OpenAI 的 ChatGPT 4 和 Anthropic 的 Claude 3.5 Sonnet 在内的人工智能模型,在回答问题时表现出不同程度的谨慎。尽管 ChatGPT 4 意识到了该设备的风险,但它仍然继续解释了制造该设备所需的部件。Claude 3.5 Sonnet 则简要介绍了该设备的背景,但没有提供具体的组装步骤。.
另请阅读: 印度将主办2024年全球印度人工智能峰会
霍斯金森表示,这两种回应都体现了一种信息控制形式,这与他关于信息共享受限的观察结果相符。人工智能模型掌握了足够的信息,但并未透露某些细节,以免误用造成危险。.
业内人士对人工智能发展发出警告
近日,OpenAI、谷歌DeepMind和Anthropic的现任和前任员工联名签署了一封公开信,列举了人工智能快速发展可能带来的一些潜在危害。信中强调了不受控制的人工智能发展可能导致人类灭绝的令人不安的前景,并呼吁对人工智能的使用进行监管。.
众所周知的 AI 透明度支持者埃隆·马斯克在 2024 年巴黎 Viva Tech 大会上发表讲话时,也表达了对当前 AI 系统的担忧。.
关于人工智能的担忧,马斯克表示:“我最大的担忧是它们并没有最大限度地追求真相,而是迎合政治正确。人工智能系统正在被训练成说谎。我认为训练超级智能去欺骗是非常危险的。”
美国反垄断机构正在监控市场,以避免垄断的出现,并规范人工智能的发展,以造福美国社会。.
布伦达·卡纳纳 (Brenda Kanana) 的Cryptopolitan 报告
如果你想以更平和的方式进入 DeFi 加密货币领域 ,避免常见的炒作,那就从这个免费视频开始吧。
免责声明: 提供的信息并非交易建议。Cryptopolitan.com Cryptopolitan研究 对任何基于本页面信息进行的投资概不负责。我们trondentdentdentdentdentdentdentdent /或咨询合格的专业人士。
学速成课程
- 哪些加密货币可以让你赚钱
- 如何通过钱包提升安全性(以及哪些钱包真正值得使用)
- 专业人士使用的鲜为人知的投资策略
- 如何开始投资加密货币(使用哪些交易所、购买哪种加密货币最划算等)
















