这些杀手机器人已经投入战场,并展现出强大的破坏力。我们应该感到担忧——事实上,应该非常担忧。它们在加沙和乌克兰的战争中已经证明了其致命潜力,如果使用不当,后果不堪设想。4月3日,以色列杂志《+972》发表了一篇报道,揭露以色列利用人工智能技术在加沙dent目标。.
这套名为“薰衣草”(Lavender)的人工智能系统据称编制了一份疑似哈马斯成员的暗杀名单,其中包括一些低级成员。我们无从得知这份名单的准确性,但最令人担忧的是,它甚至被用来锁定那些与家人、孩子以及众多平民待在家中的武装分子。下图显示了截至4月15日的伤亡人数。.

算法会告诉我们应该攻击谁
以色列入侵加沙后,大量平民死亡和基础设施遭到大规模破坏,这dent 这一点。这份报告引起了全球和美国人道主义组织、政府官员以及所有有识之士的严重关切。联合国秘书长安东尼奥·古特雷斯表示,他对此“深感不安”。白宫发言人约翰·柯比表示,“美国正在密切关注这份报告”。
古特雷斯对伤亡情况表现出更多关切,并表示:
“任何关乎生死、影响整个家庭的决定,都不应该交给冷冰冰的算法来计算。”
来源:世界政治评论。
这份报告是在以色列袭击并杀害七名西方援助人员(其中一些是英国前军人)之后发布的。此事自然激起了英国各地法官和律师的dent ,他们呼吁停止向以色列出售武器,理由是以色列犯有战争罪并严重违反国际法。.
思考杀手机器人的另一个维度

“停止杀手机器人运动”组织表达了他们的担忧,但表示这并非他们自2012年以来一直反对的重点,因为他们认为这只是一个数据处理系统,最终的开火决定仍然掌握在人手中。然而,他们的一份声明却引出了另一个值得思考的层面。这份声明是在新闻发布后发表的,声明中写道:
“在决定攻击推荐目标的过程中,缺乏有意义的人为控制和参与。”
来源:世界政治评论。
该声明使用了“缺乏有意义的人类控制”一词,这给已经受到谴责的人工智能和杀手机器人又增加了一层复杂性,也为活动人士提供了一个新的需要倡导的关注点。.
人们通常将人工智能描绘成未来某一天可能会统治地球,造成灾难性后果,甚至导致人类灭绝。但更令人担忧的是,使用人工智能的势力在进行目标选择时会更加肆无忌惮,责任感也会降低,最终导致他们在战争中做出不道德的决定,正如我们在加沙已经看到的那样。因此,归根结底,问题不在于机器人做出与人类对抗的决定,而在于人类在如此敏感的生死攸关的时刻,没有充分运用自身的认知能力,做出机械式的决定。正如报告中援引一位消息人士的话所说:
“机器冷酷地完成了这项任务。”
来源:+972mag。.
还有另一个角度,这可能会损害程序员与人工智能系统有效沟通的能力,最终导致战争罪行。.

