킬러 로봇은 이미 전장에 투입되어 매우 파괴적인 무기임을 입증하고 있습니다. 우리는 심각하게 우려해야 합니다. 가자와 우크라이나 전쟁에서 이미 그 치명적인 잠재력이 드러났듯이, 만약 부주의하게 다룬다면 그 결과는 참혹할 수 있습니다. 4월 3일, 이스라엘 출판물인 +972 매거진은 이스라엘이 가자지구에서 인공지능을 이용해 목표물을dent있다는 보고서를 발표했습니다.
이 AI 시스템은 '라벤더'라고 불리며, 하마스 하급 간부들을 포함한 하마스 용의자들의 살해 대상 목록을 작성한 것으로 알려져 있습니다. 이 목록의 정확성은 알 수 없지만, 가장 우려스러운 점은 이 시스템이 하마스 대원들이 가족, 아이들, 그리고 수많은 민간인들과 함께 집에 있을 때조차도 표적으로 삼았다는 것입니다. 아래 차트는 4월 15일까지의 사상자 및 부상자 수를 보여줍니다.

알고리즘은 누구를 표적으로 삼아야 하는지 알려줍니다
이스라엘의 가자지구 침공 이후 발생한 수많은 민간인 사망과 막대한 기반 시설 파괴에서 알dent , 이 보고서는 인도주의 단체, 정부 관계자, 그리고 전 세계 모든 양심적인 사람들과 미국 국민들에게 심각한 우려를 불러일으켰습니다. 안토니오 구테레스 유엔 사무총장은 "깊은 우려를 표명했다"고 밝혔고, 존 커비 백악관 대변인은 "미국이 보고서를 면밀히 검토하고 있다"고 말했습니다
구테레스 사무총장은 사상자에 대해 더 큰 우려를 표하며 다음과 같이 말했습니다
"온 가족의 생사에 영향을 미치는 결정의 어떤 부분도 냉정한 알고리즘 계산에 맡겨져서는 안 됩니다."
출처: Worldpoliticsreview .
이 보고서는 이스라엘이 서방 구호 활동가 7명을 표적으로 삼아 살해한dent 이후에 발표되었는데, 희생자 중에는 전 영국 군인도 포함되어 있었습니다. 이 사건은 당연히 영국 전역의 판사와 변호사들에게 이스라엘의 전쟁 범죄와 심각한 국제법 위반을 이유로 이스라엘에 대한 무기 판매를 중단하도록 촉구하는 계기가 되었습니다.
킬러 로봇에 대해 생각하는 또 다른 차원

킬러 로봇 저지 캠페인(Campaign to Stop Killer Robots)은 우려를 표명했지만, 2012년부터 자신들이 캠페인을 벌여온 대상과는 다르다고 밝혔습니다. 그들에 따르면, 이는 데이터 처리 시스템일 뿐이며 최종 발사 결정은 여전히 인간의 손에 달려 있다는 것입니다. 그러나 그들의 성명 중 하나는 생각해 볼 만한 또 다른 측면을 제시합니다. 이 성명은 해당 뉴스가 보도된 후에 발표되었다고 합니다
"공격 대상 선정 과정에 의미 있는 인간의 통제와 참여가 부족하다."
출처: Worldpoliticsreview .
이 성명서는 "의미 있는 인간의 통제력 부족"이라는 표현을 사용하여 이미 비난받고 있는 인공지능과 킬러 로봇에 또 다른 복잡성을 더하고, 활동가들에게 새로운 우려 사항을 제시합니다.
인공지능은 언젠가 지구를 장악하고 재앙적인 피해를 . 하지만 더 우려스러운 점은 인공지능을 사용하는 세력이 목표물 선정에 있어 신중함을 잃고 책임감을 덜 느끼게 되어, 가자지구에서 이미 목격했듯이 전쟁에서 비윤리적인 결정을 내릴 가능성이 높다는 것입니다. 결국 문제는 로봇이 인간을 상대로 결정을 내리는 것이 아니라, 생사가 걸린 민감한 상황에서 인간이 자신의 인지 능력을 온전히 활용하지 않고 로봇처럼 결정을 내리는 데 있습니다. 보고서에서 언급된 소식통의 말에 따르면,
“기계가 냉정하게 일을 처리했다.”
출처: +972mag.
또 다른 측면도 있는데, 이는 프로그래머가 AI 시스템과 효과적으로 소통하는 능력을 저해하여 결국 전쟁 범죄로 이어질 수 있다는 것입니다.

