AI 무기의 실험 무대가 된 '이스라엘-하마스 전쟁'

2024-09-17     데이브

[smartPC사랑=데이브] 2008년 개봉한 영화 '이글 아이(Eagle Eye)'에는 인공지능 '아리아'가 나온다. '아리아'는 국가의 안전을 위해 설계되었으나, 대통령과 정부 각료들이 국가 안보에 해를 끼친다고 판단하여 이들을 제거하려는 결정을 내린다. AI가 인간의 통제를 벗어나 스스로 윤리적 판단을 내리는 상황이 묘사되었는데, 이러한 상상이 이제 현실로 다가오고 있다.

지난 4월, 팔레스타인과 이스라엘 출신 언론인들이 운영하는 비영리 매체 '+972'는 이스라엘이 하마스 전사를 식별하기 위해 AI 시스템 '라벤더'를 사용하고 있으며, 표적을 설정하는 데 단 20초도 걸리지 않는다는 사실을 폭로해 충격을 주었다.

 

하마스

 

AI 활용하여 테러리스트 식별과 폭격 대상 선정

이스라엘의 AI 얼굴 인식 프로그램 '라벤더'는 CCTV로 수집된 얼굴 정보 등 개인 행동과 연결 데이터를 수집하여 테러리스트를 식별한다. 그러나 문제는 '라벤더'의 정확도가 90%에 불과하다는 것이다. 즉, 10%의 오차가 발생할 경우, 무장 단체와 무관한 시민이나 심지어 관광객조차 테러리스트로 지목될 가능성이 있다는 점이다. 더 나아가 하마스 요원 한 명을 사살하는 데 민간인 15명의 희생이 허용되는 교전 비율이 적용된다는 사실도 폭로되었다. 심지어 민간인 희생 교전 비율은 목표 대상에 따라 조정될 수 있다고 한다.

'라벤더'는 주로 건물과 구조물을 목표물로 식별하는 또 다른 AI 기반 시스템 '가스펠'과 함께 사용된다. 이스라엘군은 '라벤더' 시스템을 통해 하마스 대원을 식별하고, 이를 바탕으로 폭격 대상을 선정하여 작전을 수행한다. 가자 지구에서의 지상군 작전도 '라벤더'가 제시한 표적을 따라 진행되었으며, 이로 인해 수많은 팔레스타인 민간인이 사망했다. 이 중 다수는 전쟁과 무관한 여성과 어린이였다.

이스라엘군은 공식 성명을 통해 "'라벤더'는 참고용 데이터베이스일 뿐, 공식적인 공격 대상 목록은 아니며 테러리스트를 식별하거나 예측하는 데 AI를 사용하지 않았다"라고 반박하고 있다. 하지만, 현장 데이터가 AI와 실시간으로 공유되지 않는 경우, 현장 판단과 AI 판단 간에 큰 차이가 발생할 수 있다. AI 전쟁이 인류에게 큰 위협이 될 수 있음을 시사하는 것이다.

 

인간 판단의 축소와 AI 결정 우선 시대의 도래

AI가 전쟁에 도입되면서 오히려 인간이 AI의 결정을 단순히 승인하는 역할에 그칠 수 있다는 우려가 커지고 있다. 실제로 AI 기반 군사 작전이 수행되면서 인간의 판단은 점차 축소되고, AI의 결정이 우선시될 가능성이 높아지고 있다.

AI가 가져온 변화는 이제 막 시작되었다. AI 기반 신무기는 스스로 진화할 수 있는 능력을 지니고 있어 전쟁의 양상을 끊임없이 변화시킬 것이다. 전쟁의 역사에서 가장 근본적인 변화는 이제 AI의 결정을 인간이 자발적으로 따르기 시작했다는 점이다. 과거에는 인공지능을 어떻게 통제할 것인가에 대한 고민을 했던 것에 반해, 이제는 AI의 결정에 인간이 의존하는 시대가 도래한 것이다.

 

​2024

 

미래 전쟁의 게임 체인저, AI 자율 무기

AI 자율 무기의 도입은 미래 전쟁의 중요한 게임 체인저로 여겨지고 있다. AI 자율 무기는 인간의 통제를 받지 않고 살상 결정을 내릴 수 기 때문이다. 

AI는 러시아-우크라이나 전쟁과 가자 전쟁부터 본격적으로 실전에 투입되었다. 미국의 민간 기업 팰런티어의 국방 정보 플랫폼 '고담'은 우크라이나가 러시아군의 위치를 정확히 파악하는 데 큰 역할을 했으며, 우크라이나의 전술 프로그램 'GIS 아르타'는 적 드론 등 표적을 식별해 가장 효율적인 부대에 화력 지원을 명령하는 방식으로 작동하고 있다.

AI는 단순히 타깃 공격을 넘어 전쟁 시나리오를 설계하는 사령관의 역할로도 확대되고 있다. 중국과 미국은 AI를 활용한 대규모 워게임을 통해 최선의 전략을 도출하는 실험을 진행 중이다.

이에 세계 주요국들은 AI 군비 경쟁을 강화할 수밖에 없는 상황에 처해 있다. 적국과 동등한 수준의 AI를 갖추지 않으면 방어가 어려운 '힘의 균형' 논리가 작용하기 때문이다. 중국은 2030년까지 세계 최고의 AI 혁신 중심이 되겠다는 계획을 세우고, 개인정보 수집 규제가 느슨한 이점을 활용해 자국 AI를 고도화하고 있다. 이에 따라 미국은 군사적으로 중국에 뒤처질까 우려하여 AI 자율 무기 시스템을 더욱 강화하고 있다.

AI 전쟁의 핵심은 데이터다. 특히 적군과 민간인을 정확히 구분하기 위해서는 일상 데이터가 필수적이다. 따라서 우리의 모든 개인정보가 군사 안보 목적으로 사용될 가능성이 높아지고 있으며, 이에 대한 불안감도 확산되고 있다. AI 자율 무기화에 신중해야 한다는 경고는 계속되고 있지만, 이는 공허한 메아리에 불과한 실정이다.

각국의 이해관계로 인해 빠른 시일 내에 법적 구속력이 있는 국제 규범이 마련되기는 어려워 보인다. 이미 AI 무기가 전 세계 전장에서 시험대에 오른 상황에서, 비극적인 결과가 발생한 후에야 관련 법과 제도가 정비될 것이라는 우려가 커지고 있다.

<이 기사는 digitalpeep님의 네이버 블로그에도 실렸습니다.>