杀手机器人已经出现在战场上,并正在证明自己是极具破坏性的武器。 我们应该担心——事实上非常担心。 由于它们在加沙和乌克兰的战争中已经证明了它们的致命潜力,如果处理不慎,后果可能是毁灭性的。 4月3日,以色列出版物+972杂志发表了一篇关于以色列利用人工智能dent加沙目标的报道。
该人工智能系统名为“Lavender”,据说它整理了疑似哈马斯人员的杀戮名单,其中包括低级别工作人员。 我们不知道这些名单有多正确,但最令人担忧的事实是,它被用来瞄准武装分子,即使他们与家人、孩子和周围许多平民呆在家里。 下图显示了截至 4 月 15 日的伤亡人数。
算法告诉目标是谁
以色列入侵加沙后大量平民死亡和基础设施遭到大规模破坏就dent这一点,该报告引起了人道主义协会、政府官员以及全球和美国每一位明智人士的严重关切。 联合国秘书长安东尼奥·古特雷斯表示,他“深感不安”,白宫发言人约翰·柯比表示,“美国正在密切审查该报告”。
古特雷斯对伤亡表示更加担忧,并表示:
“影响整个家庭的生死决定的任何部分都不应该委托给算法的冷计算。”
资料来源:世界政治评论。
该报告是在以色列袭击并杀害七名西方救援人员(其中一些人是前英国军人)dent后发表的。 这当然促使英国各地的法官和律师停止向以色列出售武器,因为以色列犯下了战争罪行并严重违反了国际法。
思考杀手机器人的另一个维度
阻止杀手机器人运动表达了担忧,但表示这并不是他们自 2012 年以来所反对的运动,因为根据他们的说法,这是一个数据处理系统,开火的最终决定权仍然掌握在人类手中,但他们的一份声明提供了另一个维度想一下。 该声明是在新闻发布后发布的,它说,
“在攻击推荐目标的决策中缺乏有意义的人为控制和参与。”
资料来源:世界政治评论。
该声明使用了“缺乏有意义的人类控制”一词,这为已经受到谴责的人工智能和杀手机器人增添了另一层复杂性,也为活动人士提供了新的关注点。
人工智能通常被描述为有一天可能会接管地球并造成灾难性伤害,甚至人类灭绝。 但更令人担忧的事实是,使用它们的部队在瞄准时会不太谨慎,这将使他们不那么负责任,这将导致他们在战争中做出不道德的决定,正如我们在加沙已经看到的那样。 所以归根结底,这不是机器人做出针对人类的决定,而是人类在如此敏感的生死攸关的情况下,在没有充分利用自己的认知能力的情况下做出机器人决定。 正如报道提到的一位消息人士所说,
“机器冷酷地完成了任务。”
来源:+972mag。
还有另一个角度,这可能会破坏程序员与人工智能系统有效沟通的能力,最终导致战争罪。
原始新闻报道可以在这里。