以色列被指控利用人工智能系统识别加沙dent目标,导致多名平民惨遭杀害。据以色列媒体+972 Magazine和Local Call近期的一项调查显示,以色列军方涉嫌使用名为“薰衣草”(Lavender)的人工智能数据库,生成了一份包含37000个潜在目标的名单,这些目标显然与哈马斯有关联。.
自 10 月 7 日以来,已有超过 33,000 名巴勒斯坦人在加沙丧生。六名dent不明的以色列情报人士与 +972 交谈后声称,以色列军事指挥官利用目标清单批准了空袭,导致平民伤亡异常惨重。.
战争和人工智能军事系统的破坏
人工智能(AI)驱动的军事系统,例如以色列的“薰衣草”(Lavender)软件,在加沙等冲突地区造成了更大的破坏。“薰衣草”以其精准识别哈马斯人员的能力而闻名,如今却变成了一把双刃剑,肆意破坏平民社区,摧毁沿途的生命。其宣称的90%准确率掩盖了这项技术在滥用时可能造成的可怕后果:无辜的旁观者可能被卷入交火之中而丧命。.
一位消息人士告诉972mag网站,
“我们被要求寻找那些有半层楼高的建筑物,这些建筑物可能与哈马斯有关。”
来源: +972mag
众所周知,人工智能的运行取决于多种因素,而这些参数的准确性dent 它们的精细调整。另一位消息人士称,如果改变数据参数,计算机就会开始向我们展示各种各样的警察和民防官员,而对这些人使用炸弹是不合适的。.
另一个值得怀疑的标准是手机是否定期更换;大多数加沙人每天都要应对战争带来的社会混乱。任何不收取报酬就向哈马斯提供援助的人,或者曾经是哈马斯成员的人,都会被算法标记为可疑人员。.
正如971mag消息人士所说,
“这些特征中的每一项都不准确”
来源: +972mag
战场自动化带来的伦理难题
随着战火硝烟散尽,人工智能驱动战争所引发的深刻伦理问题日益凸显。曾经被视为遏制无节制自动化的“人机交互”理念,如今却被视为算法判断与其实际应用之间仅一线之隔的障碍。以色列指挥官们正在就人工智能引发的暴力行为的道德后果展开辩论,他们的证词为我们深入了解那些肩负着监管现代战争复杂性重任的人们的思考提供了宝贵的视角。.
自从人工智能驱动的冲突可能带来的灾难性后果逐渐显现以来,人们心中一直萦绕着一个担忧:人类真的能够承受在生死攸关的问题上让机器占据上风的后果吗?随着各国努力应对自动化带来的道德后果以及人工智能引发暴力的现实危险,道德责任和负责任的管理比以往任何时候都更加重要。在即将步入一个可怕的新战争时期的世界里,历史的教训鲜明地揭示了不受约束的技术发展的危险性。.

