검수요청.png검수요청.png

가스펠 (인공지능)

위키원
이동: 둘러보기, 검색

가스펠(Gospel)은 이스라엘이 사용하는 인공지능(AI)으로 건물과 구조물을 목표물로 식별하는 군사 시스템이다.

아사달 스마트 호스팅 가로 배너 (since 1998).jpg
이 그림에 대한 정보
[아사달] 스마트 호스팅

개요[편집]

가스펠은 이스라엘이 사용하는 인공지능 기반 표적 선정 시스템으로, 군사 목표물을 식별하고 공격 대상을 자동으로 추천한다. 공격 대상 선정의 자동화와 신속한 의사결정을 목표로 개발되었다. 이 시스템은 머신러닝 알고리즘과 확률적 추론을 활용해 대량의 데이터를 분석하며, 하마스 대원들의 본부, 무기 창고, 미사일 발사대와 같은 군사 시설을 우선 타겟으로 설정한다. 민간 거주지나 학교, 은행과 같은 도심 건물은 2차 목표로 분류된다. 가스펠은 2021년부터 가자 지구 공습에 사용되기 시작했으며, 특히 2023년 가자 지구 작전에서는 핵심적인 역할을 했다. 가스펠의 기술은 전례 없는 속도와 효율성을 자랑하지만, 동시에 민간인 피해와 윤리적 논란이라는 심각한 문제를 안고 있다.[1]

표적 선정[편집]

가스펠의 핵심은 확률적 추론 알고리즘이다. 이는 방대한 데이터 속에서 특정 패턴을 추출하고 목표를 예측하는 방식으로 작동한다. 이 시스템은 이스라엘 정보부와 군 감시 장치에서 수집한 정보를 종합해 목표물을 찾아낸다. 드론이 촬영한 이미지, 감청된 통신 기록, 인터넷 사용 데이터 등 모든 정보가 분석 대상이다.

가스펠은 군사 시설뿐만 아니라 민간 거주지, 은행, 학교와 같은 인프라도 잠재적 타겟으로 설정한다. 1차 목표는 하마스 대원들의 지휘 본부와 무기 창고, 로켓 발사대 같은 군사 시설이고, 무장 대원이 은신 중인 민간 건물이나 학교는 2차 목표로 분류된다.

가스펠은 AI의 자동 추천 기능을 통해 공격 목표에 대해 신속한 결정을 지원한다. 목표물 내 민간인 비율을 추정해 빨간색, 노란색, 초록색으로 표기하며, 표적이 될 수 있는 건물의 위험도를 평가한다. 예를 들어 빨간색은 민간인 피해 가능성이 높음을 경고하며, 초록색은 비교적 안전한 표적으로 간주된다. 이 신호등 시스템 덕분에 IDF의 지휘관들은 민간인 피해를 최소화하면서도 신속한 공격을 수행할 수 있다.[2]

기술적 이점과 윤리적 문제[편집]

이스라엘군은 가스펠의 사용을 통해 첫 27일 동안 12,000개의 건물을 타격하며 대규모 군사 작전을 수행했다고 밝혔다. 이는 하루에 400개 이상의 건물이 공격된 셈이다. 이스라엘군은 가스펠을 가리켜 '표적 생성의 공장 생산라인'이라고 묘사하며, 인간 장교들이 수행할 수 없는 속도로 표적을 선정할 수 있음을 자랑했다. 실제로 20명의 장교가 300일 동안 50~100개의 표적을 생성하는 데 비해, 가스펠은 10~12일 만에 200개 이상의 목표물을 제안할 수 있다. 그러나 이 시스템의 성과에는 의문이 제기된다. 여러 언론 보도에 따르면, 가스펠을 통한 이스라엘의 공격으로 가자 지구 인구의 약 1%가 사망한 것으로 추정된다. 이 가운데 하마스 대원의 비율은 20~30%에 불과하다고 한다. 즉, 하마스 대원 6,000~9,000명을 제거하는 과정에서 20,000명 이상의 민간인이 희생된 셈이다. 이는 가스펠이 빠른 표적 선정에는 성공했으나 정확성과 윤리성에는 한계를 보였음을 시사한다.[3]

윤리적 문제[편집]

가스펠의 사용은 필연적으로 윤리적 문제를 수반한다. AI는 빠르게 결정을 내릴 수 있지만, 오류와 불확실성에서 자유롭지 않다. 잘못된 데이터로 인해 민간인이 오인 표적이 될 수 있으며, AI의 판단이 때로는 '환각(hallucination)'처럼 가짜 정보를 생성할 위험도 있다. 이러한 문제는 군사 작전에서 오폭(誤爆)을 초래할 수 있어, 서방 국가들은 가스펠의 오남용에 대해 우려를 표하고 있다. 이스라엘 민권 협회는 2023년 12월, IDF에 가스펠의 표적화 과정의 투명성을 요구하는 정보공개청구서를 제출했다. 또한 영국의 군사 전문가 루시 서먼 교수는 "AI가 이스라엘군의 주장대로 정확히 작동하는지 검증할 방법이 없다"며 의문을 제기했다. 가스펠이 얼마나 많은 민간인을 테러리스트로 오인했는지는 알 수 없으며, 이는 국제 사회의 강한 비판을 불러일으켰다.

AI 기술은 군사 작전의 효율성을 높이지만, 동시에 도덕적 딜레마를 낳는다. 이스라엘은 하마스가 병원학교를 군사 거점으로 사용하는 '인간 방패' 전술을 사용한다고 주장하며, 가스펠과 같은 AI 시스템이 병사의 안전을 보장하는 데 필수적이라고 설명한다. 그러나 AI의 의존도가 높아질수록 인간의 도덕적 판단이 배제되는 위험이 커진다. 미국, 영국 등 서방 국가들은 AI를 군사적으로 활용하는 기술을 연구해 왔으나, 실전 배치에는 신중을 기하고 있다. 이는 AI의 판단이 부정확할 경우 초래할 민간인 피해와 정치적 부담이 매우 크기 때문이다. 이스라엘의 가스펠 시스템은 세계 최초로 AI 표적 시스템을 실전에 투입한 사례 중 하나로, 다른 국가들에게 중요한 참고 사례가 되고 있다.[3]

각주[편집]

  1. 최영권 기자, 〈“이스라엘, AI 자동식별장치로 가자 민간인 살상”〉, 《서울신문》, 2024-03-04
  2. 김상준 기자, 〈AI가 당신 목숨을 노린다…이스라엘이 불 지핀 ‘AI전쟁’ 논란〉, 《매일경제》, 2024-04-13
  3. 3.0 3.1 임주형 기자, 〈[테크토크]이스라엘軍 슈퍼 AI, 국제 법정 오른다〉, 《아시아경제》, 2024-02-03

참고자료[편집]

같이 보기[편집]


  검수요청.png검수요청.png 이 가스펠 (인공지능) 문서는 인공지능 서비스에 관한 글로서 검토가 필요합니다. 위키 문서는 누구든지 자유롭게 편집할 수 있습니다. [편집]을 눌러 문서 내용을 검토·수정해 주세요.