영국 가디언은 3일(이하 현지시간) 이스라엘·팔레스타인 독립 매체 ‘+972 매거진’과 히브리어 매체 ‘로컬콜’로부터 공유받은 이스라엘 정보 장교 6명의 증언을 토대로, 이스라엘방위군(IDF)이 지난 6개월간 하마스 또는 팔레스타인 이슬라믹지하드(PIJ)를 식별하는 과정에서 ‘라벤더’로 불리는 AI 시스템을 활용했다고 밝혔다.
이스라엘군 정보부대가 개발한 해당 AI 시스템은 방대한 양의 정보를 처리한 뒤 하마스 무장대원일 가능성이 있는 사람을 빠른 속도로 식별해내는 역할을 하는 것으로 알려졌다.
당국자는 “‘라벤더’가 하마스 및 PIJ와 연계 가능성이 있는 팔레스타인 남성 최대 3만 7000명을 추려내 AI 시스템에 등록했다”면서 “이 대량의 데이터를 처리해 잠재적인 하급 무장대원을 표적으로 삼았다”고 전했다.
실제로 ‘라벤더’를 이용했다는 한 소식통은 “나는 (라벤더를 이용해) 하나의 표적을 찾는데 20초 정도를 썼으며, 매일 수십 명을 작업(식별) 했다. 이로서 (적을 구별해 내는) 시간을 많이 절약했다”고 주장했다.
소식통들은 “라벤더로 식별된 수만 명의 표적 중 약 10%는 무장 세력과 관련성이 약하거나, 전혀 관련되지 않았다”고 전했다.
“라벤더 사용시 민간인 살해는 감수해야”가디언에 따르면 이스라엘군은 돈·시간·인력을 아끼는 것이 민간인 목숨보다 훨씬 중요하다고 판단했다. 한 소식통은 AI의 오류와 관련해 “하위급 무장 세력에게 인력과 시간을 쓰고 싶지는 않다”면서 “부수적인 피해와 민간인 살상, 그리고 실수로 (무고한 사람을) 공격하는 오류를 감수하고라도 AI를 쓸 만하다”고 말했다.
실제로 이스라엘군은 전쟁 초기 하마스·PIJ 요원 사살 시 허용 가능한 민간인 인명피해 규모도 라벤더에 학습시켰다.
라벤더 분석 결과 하마스·PIJ 하위 요원의 경우 민간인 최대 15~20명, 고위 요원은 민간인 최대 100명이 사망할 것으로 예상돼도 공습을 용인했다는 게 정보당국 관계자들의 증언이다.
가디언은 “강력한 AI 시스템을 사용하면서 법적, 도덕적 문제가 제기되고 군인과 기계의 관계에 변화를 가져왔다”고 분석했다.
이스라엘군 당국 “라벤더 데이터, 공식 목록 아니다”라벤더에 관한 증언이 보도된 뒤, 이스라엘군은 공식 성명을 통해 “(라벤더는) 참조를 위한 데이터베이스일뿐, 공식적인 공격 대상 목록은 아니다”라며 “테러리스트를 식별하거나 테러리스트일 가능성을 예측하는 데 AI를 사용하지 않았다”고 반박했다.
해당 소식을 접한 미국은 진상조사에 착수했다.
존 커비 미 백악관 국가안보회의(NSC) 국가안보소통보좌관은 4일 CNN 인터뷰 중 관련 질문을 받자 “미국은 해당 보도가 아직 사실인지 여부를 확인하지 못했다”면서 “현재 보도 내용을 들여다보고 있다”고 전했다.
송현서 기자