결론부터: AI가 전쟁의 윤리 기준을 무너뜨리고 있어요
2025년 2월 28일, 미국·이스라엘 합동 작전 ‘Operation Epic Fury’가 개시된 순간 전쟁의 패러다임이 바뀌었습니다. AI 타겟팅 시스템은 24시간 안에 1,000건 이상의 표적을 자동 식별·공격했고, 이란 남부 학교 공습에서만 최소 165명이 사망하고 95명이 부상을 입었습니다. 문제는 화력이 아니라 인간의 윤리적 판단이 알고리즘으로 대체되고 있다는 점입니다.
이 글에서 다룰 내용: ① AI 타겟팅 시스템이 실전에서 어떻게 작동했는가 ② 현행 국제인도법이 왜 AI 무기를 감당하지 못하는가 ③ 전쟁 윤리의 붕괴를 막기 위해 무엇이 필요한가

Operation Epic Fury: AI가 전장의 심장부를 장악했어요

2025년 2월 28일 개시된 미·이스라엘 합동 작전은 AI를 의사결정 구조의 핵심에 결합한 첫 대규모 실전 사례입니다. 과거 전쟁에서 표적 하나를 승인하는 데 수 시간에서 수일이 걸렸다면, 이번 작전에서 AI 기반 군사 시스템 ‘메이븐 스마트 시스템(Maven Smart System)’은 그 속도를 수천 배 끌어올렸습니다.
우다 루프(OODA Loop)가 알고리즘으로 바뀌었어요
전통적 전쟁의 의사결정 구조인 우다 루프(관찰→판단→결정→타격)는 인간 분석가와 지휘관의 협의를 거쳤습니다. 이번 작전에서는 AI가 적 동향 관찰(Observe)부터 표적 우선순위 제안(Orient·Decide)까지 자동화했고, 인간은 최종 타격(Act) 직전 형식적 승인만 눌렀습니다. AP통신 보도에 따르면 이스라엘은 이란 내 CCTV 네트워크를 해킹해 AI 분석으로 표적을 실시간 식별하기도 했습니다. 물리적 공격, 사이버전, 인지전이 통합된 하이브리드 전쟁이 현실이 된 것입니다.
AI 타겟팅 시스템의 인명피해 기준, 실제로 어떻게 작동하나요

AI 무기 시대의 인명피해 기준은 국제인도법(IHL)이 요구하는 ‘구별의 원칙(Principle of Distinction)’에 달려 있습니다. 이 원칙은 공격자가 전투원과 민간인을 명확히 구별할 수 있어야 한다고 규정합니다. 문제는 현재 딥러닝 기반 영상·신호 분석 시스템이 이 기준을 충족하지 못한다는 점입니다.
딥러닝 모델의 오류와 편향이 민간인을 표적으로 만들어요
메이븐 스마트 시스템을 포함한 AI 타겟팅 모델은 훈련 데이터의 편향을 그대로 반영합니다. 특정 복장, 이동 패턴, 건물 형태를 ‘위협’으로 분류하도록 학습된 모델은 학교·시장·병원을 군사 시설로 오인할 수 있습니다. 이란 남부 학교 공습에서 최소 165명 사망, 95명 부상이 발생한 것은 이 오류의 직접적 결과입니다. 『네이처(Nature)』는 2025년 3월 이 사태를 보도하며 AI 군사 시스템의 윤리적·법적 규제 필요성을 긴급히 촉구했습니다.
| 구분 | 전통 전쟁 | AI 타겟팅 시스템 |
|---|---|---|
| 표적 식별 속도 | 수 시간~수일 | 수 초~수 분 |
| 24시간 처리 표적 수 | 수십 건 | 1,000건 이상 |
| 민간인 구별 기준 | 인간 분석가 판단 | 딥러닝 모델 분류 |
| 윤리 검토 시간 | 명령 체계 내 협의 | 형식적 승인 클릭 |
| 책임 소재 | 지휘관·국가 | 불명확(알고리즘) |
이스라엘 타겟팅 시스템이 드러낸 전쟁 윤리의 붕괴

이스라엘의 군사 AI 시스템은 하롭(Harop) 자폭 드론처럼 목표물을 스스로 탐지하고 공격하는 단계까지 진화했습니다. 미 국방부의 프로젝트 메이븐(Project Maven)은 원래 드론 영상 분석 정확도를 높이는 데서 출발했지만, 이번 작전에서는 표적 선정과 우선순위 자동화에 실전 투입됐습니다.
인간의 도덕적 고민이 ‘형식적 클릭’으로 줄어들었어요
AI가 표적 목록을 제시하고 인간이 수 초 안에 승인하는 구조는 책임 소재를 의도적으로 희석시킵니다. 전문가들은 이를 ‘책임의 공백(Accountability Gap)’이라 부릅니다. 개별 공격에 대한 윤리적 검토 시간이 사실상 사라지면서, 지휘관은 ‘알고리즘이 권고했으니 내 책임이 아니다’라는 면피 논리를 갖게 됩니다. 국제학술지 『네이처』에 기고한 과학자들은 이 구조가 완전 자율 살상무기(Lethal Autonomous Weapons, LAWS)로 가는 사실상의 전 단계라고 경고했습니다.
| 논쟁 지점 | 현재 상황 | 필요한 조치 |
|---|---|---|
| 민간인 구별 능력 | AI 모델 오류·편향 내포 | 독립적 알고리즘 감사 의무화 |
| 책임 소재 | 지휘관·개발사·국가 모두 불명확 | 국제법상 책임 주체 명문화 |
| 자율 살상무기 규제 | 국제 조약 부재 | LAWS 국제 금지 협약 체결 |
| 작전 투명성 | 알고리즘 블랙박스 | 표적 선정 과정 공개 의무화 |
자주 묻는 질문

AI 타겟팅 시스템은 국제인도법 위반인가요?
현행 국제인도법은 전투원과 민간인을 구별할 수 있는 능력을 공격자에게 요구합니다. 딥러닝 기반 AI 시스템이 이 기준을 충족한다는 것을 입증할 투명한 기준이 현재 존재하지 않아, 법적 위반 여부를 둘러싼 논쟁이 국제사회에서 활발히 진행 중입니다.
자율 살상무기 금지 논의는 어디까지 진행됐나요?
2025년 현재 유엔 차원의 LAWS(자율 살상무기) 금지 조약은 아직 체결되지 않았습니다. 『네이처』를 포함한 국제 과학계와 인권단체들이 즉각적 금지를 촉구하고 있으나, 미국·이스라엘·러시아·중국 등 주요 군사 강국의 반대로 협상이 지연되고 있습니다.
이 사태가 남긴 세 가지 핵심
1. AI 무기 시대의 인명피해 기준은 이미 무너졌습니다. 24시간 1,000건 이상의 자동 표적 식별은 인간이 윤리적으로 검토할 수 있는 속도를 한참 넘어섰습니다. 2. 이스라엘 타겟팅 시스템이 드러낸 전쟁 윤리의 붕괴는 기술 문제가 아니라 제도 문제입니다. AI가 추천하고 인간이 형식적으로 승인하는 구조가 확립되는 한, 책임의 공백은 계속 확대됩니다. 3. 자율 살상무기 국제 금지 협약과 AI 전쟁 시스템 투명성 규정 마련이 지금 당장 필요합니다. 이란 남부 학교 공습의 165명 사망은 규제 공백이 실제 인명으로 이어진다는 것을 증명했습니다.
이 이슈에 관심 있다면, 유엔 LAWS 논의 동향과 프로젝트 메이븐의 최신 전개를 함께 확인해 보세요. 전쟁 윤리의 미래는 기술이 아니라 우리가 어떤 규칙을 만드느냐에 달려 있습니다.
#AI무기 #전쟁윤리 #자율살상무기 #이스라엘타겟팅시스템 #국제인도법


