지난 며칠 동안 미국의 한 고위 관료는 모든 핵보유국이 핵무기 관리를 위해 고위직에 인간을 배치해야 한다는 점을 거듭 강조했습니다. 국무부 군비통제·억지·안정국 차관보 대행인 폴 딘은 위험한 시기에 기계가 제 역할을 다하지 못할 가능성을 간과하는 것은 매우 위험하며, 단 한 번의 실수로 기계 자체의 손상보다 훨씬 더 큰 피해를 초래할 수 있다고 지적했습니다. 그는 특히 전략 무기 관리와 관련된 의사 결정에 있어 인간의 고려가 근본적으로 중요하다는 유엔 안전보장이사회의 합의를 언급했습니다.
인공지능의 오펜하이머 순간
무기화된 인공지능의 위험성은 오펜하이머의 시대가 지나고 나서야 비로소 정점에 달했습니다. 이는 원자폭탄의 아버지인 J. 로버트 오펜하이머가 직면했던 윤리적 기로가 현대 전쟁에서 인공지능의 역할에 대한 논의를 지배하고 있음을 분명히 보여줍니다. 몇 주 전, 100여 개국이 참여한 공동 훈련에서 군사 기술 규제 시스템에 인공지능을 엄격하게 적용해야 한다는 점이 주요 의제 중 하나였습니다. 오스트리아 외무장관 알렉산더 샬렌베르크는 군사적 응용 분야에서 인공지능은 인간의 생사 결정에 영향을 미치지 않으며, 군사 기술에 미치는 영향은 화약만큼이나 중대하다고 주장했습니다.
자율 무기와 국제 외교
비엔나에서 열린 자율무기시스템 컨퍼런스에서는 인공지능(AI)이 전쟁 전략에 어떻게 접목되고 있는지, 그리고 이러한 기술을 규율하기 위한 국제 조약 체계의 시급한 필요성에 대한 논의가 이루어졌습니다. AI가 군사 분야에 고도로 활용되고 있음에도 불구하고, 자율 살상 무기 시스템(LAWS)을 규율할 구체적인 국제법 체계는 아직 마련되지 않았습니다. 이번 컨퍼런스는 이러한 조약 초안 작성을 위한 향후 협상을 주최할 것으로 예상되는 국가들을 위해 마련되었습니다.
글로벌 군사 발전과 인공지능
최근 한 사례는 군사적 목표를 위한 인공지능의 합법적인 활용 가능성을 보여주지만, 여기서 강조되는 우려는 이스라엘 스파이가 '라벤더'라는 가명을 붙여 만든 인공지능 시스템입니다. 이 시스템은 용의자(가명)와 관련된 방대한 데이터를 수집하고 목표물을 식별하기 위해 의도적으로 개발되었습니다. 또한 우크라이나군은 정밀도와 안전성을 향상시킬 수 있는 인공지능 기반 대드론 개발에 착수하여 자동화된 군사 기술로의 전환이 빠르게 진행되고 있음을 보여주고 있습니다. 한편,matic 노력도 지속되고 있으며, 바이든 행정부 역시 중국과의 지속적인 논의에 힘쓰고 있습니다.
우려는 핵무기 정책과 같은 근시안적인 문제뿐만 아니라 인공지능(AI)의 급속한 발전이라는 더 큰 그림에도 있습니다. 이러한 분석은 AI가 제기하는 위험을 해결하고 기술에서 AI의 양면적인 역할을 인식하기 위한 토대를 마련하고자 합니다. 따라서 각국 군대의 원격 제어 시스템에 AI 기술이 통합되는 추세에 따라 이러한 기술을 규제할 국제 조약 체계를 구축해야 할 필요성이 그 어느tron다 커졌습니다. 대화와 지속적인 협상은 방어 및 전쟁 목적에 사용되는 로봇이 인간의 통제 하에 놓이게 되는 중요한 단계입니다.

