유엔 사무총장 슬로테리 안토니오 구테레스는 이스라엘이 가자지구의 목표물 감시를 위해 인공지능(AI) 도입을 검토하고 있다는 보도에 대해 깊은 우려를 표명했습니다. 이스라엘 잡지 +972에 게재된 이 보도는 군사 작전 수행 방식을 재고하게 하며, 현재 진행 중인 전쟁에서 AI의 활용 가능성에 대한 중요한 질문들을 제기합니다.
유엔이 인식하고 있는 전쟁에서의 인공지능 활용은 시급한 문제로 대두되고 있습니다
처음에 그가 우려를 표명한 것은 이스라엘 군이 민간인 거주 지역과 인구 밀집 지역을 폭격하기 위해 인공지능(AI)을 의도적으로 사용한 사례였습니다. 사무총장은 시스템이 알고리즘에 의존하여 민간인의 삶에 중대한 영향을 미치는 핵심적인 결정을 내릴 때 발생하는 위험성을 지적했습니다. 그의 발언을 통해 분쟁 지역에서의 인공지능 사용과 관련된 윤리적, 법적 문제, 특히 책임과 전투원의 안전에 대한 관심이 전 세계적으로 고조되고 있음을 알 수 있습니다.
+972 보고서는 몇 가지 핵심적인 세부 정보를 제공합니다
+972의 기사는 가자 지구 내 전쟁에서 인공지능 기술이 활용되고 있으며, 표적 선정 과정에서 인간의 개입은 극히 제한적이라고 결론지었습니다. 일부 표적의 경우, 인공지능 평가만으로 단 20초 만에 공격 개시를 결정할 수 있을 정도로 신속한 판단이 이루어졌습니다. 이러한 단기적인 판단은dent식별 과정의 타당성을 보여줍니다. 여기서는 가자 지구 주민들을 잠재적 표적으로 삼아 유죄 여부를 판단하는 방식이 인간의 개입을 최소화하고,dent피해에 대해서는 유연한 정책을 적용하는 데 초점을 맞추고 있다고 지적합니다.
이스라엘의 실수 인정
이스라엘은 주목할 만한 성명을 통해, 이전에는 무장 하마스 요원으로 여겨졌던 구호 활동가들이 가자지구에서 하마스 작전에 연루되어 비극적인 죽음을 맞이한 사건에 대해 일련의 오류를 인정했습니다. 이러한 인정은 기술 전쟁으로 인한 참사, 특히 인구 밀집 지역에서의 전쟁 수행 중 발생하는 어려움과 오류를 여실히 보여줍니다. 이 사례는 전투 지역에서 인공지능 기술을 활용할 때 철저한 감독과 책임 소재 규명이 얼마나 중요한지 다시금 일깨워줍니다.
군사 전략에 인공지능(AI)을 통합하는 것은 전쟁 수행 방식과 규제에 중추적인 역할을 하는 매우 주목할 만한 사건입니다. 인공지능이 전쟁에 활용될 때 알고리즘에 의존하게 되므로, 정확한 목표 설정과 효율성 향상이 긍정적인 결과로 나타납니다. 그러나 컴퓨터를 '정보'이자 '의사결정자'로 활용할 때 발생하는 도덕적, 법적, 인도주의적 문제들은 복잡하고 논쟁적입니다. 무력 충돌에서 인공지능 사용과 관련된 딜레마를 보여주는 가자 지구 사태는 기술 발전에서부터 민간인 보호, 인간의 존엄성, 그리고 전쟁의 요구 사이의 균형에 이르기까지 광범위한 문제들을 시사합니다.
원문 출처: https://www.jamaicaobserver.com/2024/04/05/un-chief-deeply-troubled-reports-israel-using-ai-identify-gaza-targets/

