인공지능( AI )을 군사 기술에 통합하는 것은 특히 자율 무기 시스템의 개발 및 배치와 관련하여 상당한 윤리적 문제를 야기해 왔습니다. 시민단체인 퍼블릭 시티즌(Public Citizen)의 최근 보고서는 AI 기반 무기 사용과 관련된 잠재적 위험을 강조하며, 표적의 비인간화와 국제 인권법 위반 위험에 대해 경고했습니다.
책임성 문제 및 정책적 결함
미국 국방부(DOD)와 군사trac업체들이 인공지능(AI) 도입을 추진함에 따라 책임성과 윤리적 감독에 대한 의문이 제기되고 있습니다. 케이스 웨스턴 리저브 대학교의 제시카 울펜데일 교수는 자율 무기가 인간의 직접적인 개입 없이 스스로 결정을 내릴 때 발생하는 표적 오인 위험과 책임 소재의 공백을 강조합니다.
이에 대응하여 미 국방부는 2023년 1월 자율 및 반자율 무기 시스템 정책을 명시한 지침을 발표했습니다. 그러나 비평가들은 이 지침이 핵심적인 윤리적, 법적, 책임성 문제를 제대로 다루지 못하고 있다고 주장합니다. 휴먼라이츠워치와 하버드 로스쿨 국제인권클리닉은 긴급한 군사적 필요에 따른 고위급 검토 면제 조항과 다른 정부 기관을 적용 범위에서 제외한 점 등 정책의 허점을 지적했습니다.
국제적 파급 효과 및 발전 추세
자율무기를 다루는 포괄적인 법적 틀이 부족한 것은 윤리적 딜레마를 더욱 악화시킨다. 일부에서는 자율무기 배치를 금지하는 국제 조약을 주장하지만, 현실은 지정학적 긴장과 군산복합체의 이익에 힘입어 자율무기 개발이 이미 전 세계적으로 진행되고 있다는 점이다.
미국에서는 제너럴 다이내믹스, 비거 인더스트리얼, 안두릴 인더스트리즈와 같은 기업들이 무인 탱크, 잠수함, 드론 개발을 주도하고 있습니다. 윤리 원칙과 국제법 준수를 보장하고 있음에도 불구하고, 편향된 의사 결정과 의도치 않은 민간인 사상자 발생 가능성에 대한 우려가 여전히 남아 있습니다.
기술 발전 속 윤리적 고려 사항
전쟁 윤리를 전문으로 하는 제레미 모세스 부교수는 자율 무기에 대한 지나친 관심이 전쟁의 더 광범위한 윤리적 함의에서 주의를trac시킨다고 주장합니다. 그는 치명적인 무력 사용에 대한 결정의 책임은 궁극적으로 사용된 기술과 관계없이 인간의 판단에 달려 있다고 강조합니다.
인공지능 의 활용은 자율 무기를 넘어 드론과 같은 기술로까지 확대되어 분쟁의 양상을 변화시키고 있습니다. 지지자들은 드론의 정밀 타격 능력을 강조하는 반면, 비판론자들은 잘못된 정보와 알고리즘 편향으로 인한 민간인 사상자 발생 사례를 지적합니다.
각국이 인공지능 기반 전쟁의 윤리적 함의를 놓고 고심하는 가운데, 투명성, 책임성, 그리고 국제 협력을 최우선 과제로 삼아야 합니다. 자율 무기의 개발 및 배치를 규제하려는 노력과 더불어 전쟁 윤리 및 군사 정책 결정자의 책임에 대한 폭넓은 논의가 반드시 수반되어야 합니다.
궁극적으로 전쟁의 윤리적 지형은 천천히 진화하며, 첨단 기술의 확산은 지속적인 검토와 윤리적 성찰의 필요성을 더욱 강조합니다. 사회가 분쟁 상황에서 인공지능의 함의를 고민하는 가운데, 윤리적 명확성을 추구하는 것은 세계 평화와 안보를 위한 끊임없는 과제로 남아 있습니다.

