print

전쟁터에도 나선 AI…우리의 불편한 의무 고민해야 [한세희 테크&라이프]

군사 작전 인명 살상 여부도 AI가 결정? 

 가자지구에서 지상 작전을 벌이는 이스라엘군. [사진 가자지구 신화/연합뉴스]

[한세희 IT 칼럼니스트] 2018년, 토비 월시 미국 뉴사우스웨일스대학 교수와 제프리 힌튼 워털루대학 교수 등 해외 유명 로봇 및 AI 연구자 50여 명이 한국과학기술원(KAIST)에 “AI 무기 연구를 중단하라”며 공개서한을 보낸 일이 있었다. 이들은 “자율적으로 결정하는 무기를 개발하지 않겠다고 약속할 때까지 연구 협력을 전면 중단하겠다”라고 밝혔다. 

이들이 문제 삼은 것은 KAIST가 한화시스템과 함께 교내에 설립한 ‘국방 인공지능 융합연구센터’였다. 이 연구소는 AI를 활용해 지휘관의 의사 결정을 돕고 무인 항공기를 만들며, 물체를 추적하는 지능형 기술을 개발한다는 목표를 갖고 있었다. 이에 대해 일부 과학자들이 이 같은 연구가 결국 살상용 AI 무기 개발로 이어질 수 있다며 반대 의사를 밝힌 것이었다. KAIST는 “대량살상무기 등 인간 윤리에 위배되는 연구와 통제력이 결여된 자율무기 등 인간 존엄성에 어긋나는 연구 활동을 수행하지 않을 것”이라 해명했고, 과학자들은 보이콧을 철회했다. 

이 연구소는 주로 AI를 활용한 의사결정과 정찰, 훈련 등 군사 지원 기술을 다룬다는 계획이었지만, AI를 군사 분야에 활용한다는 사실 자체가 거부감을 일으켰다. 장기적으로는 군사 작전에 필연적인 인명 살상 여부를 AI가 결정할 날이 오리라는 우려가 만만치 않다. 

AI의 학습 및 판단 능력은 계속 좋아지겠지만, 살상 여부를 판단하는 것은 완전히 다른 문제다. 정찰 로봇이 전장을 순찰하다 사람을 발견했을 때, 이들이 적군 또는 테러리스트인지 분류해 공격한다면 어떻게 될까? 전쟁터에서 중요한 결정은 사람이 내려야 한다는 주장에 이의는 없을 것이다. 하지만 미래 전장에서 인간 지휘관의 판단을 보조할 데이터와 자료는 AI가 제공한다. 아니, 이는 이미 현실이기도 하다. 

죽음의 꽃 ‘라벤더’…하마스 무장 세력 참여자 식별

최근 하마스와 전쟁을 벌이고 있는 이스라엘이 민간인 사이에 섞인 하마스 병력을 식별하기 위해 AI 시스템을 쓰고 있다는 폭로가 나왔다. 이스라엘 군이 운영하는 ‘라벤더’라는 AI 시스템은 각종 데이터를 기반으로 어떤 인물이 하마스 무장 세력에 참여하는 사람인지 식별하는 데 쓰인다. 여러 데이터와 연결 고리를 분석해 이 사람이 하마스 병력인지 여부를 판단한다. 하마스 병력으로 판단되면 이스라엘 군은 폭격을 가한다. 또 어떤 건물이나 공간이 무장 세력의 근거지나 활동 장소인지 판단하는 데 특화된 AI 시스템도 따로 있다고 한다. 

이런 사실은 이스라엘의 AI 활용에 문제의식을 가진 군 내부자가 현지 매체에 제보해 알려졌다. 이에 따르면 라벤더는 최대 3만 7000명까지 하마스 병력으로 판단하기도 했다고 한다. AI가 실제 전장에서 활용된 사례 중 최대 규모로 꼽힌다. 

라벤더가 식별하는 하마스 병력은 대개 현장의 하급 전투원들이다. 이스라엘 군은 하마스 고위 지도자들을 공격할 때는 정밀한 ‘외과적 타격’이 가능한 고성능 폭탄을 사용하지만, 하급 병력에는 저렴한(?) 일반 폭탄을 쓴다. 이는 AI에 의해 하마스 병력으로 분류된 병력 주변의 민간인들이 함께 희생당할 가능성도 커진다는 의미다. 이스라엘 군은 하마스 병력 1명당 허용 가능한 민간인 수에 대한 기준도 갖고 있다. 누군가를 하마스 병력으로 간주할지 판단하는 기준을 얼마나 엄격하게 적용할지, 또는 하마스 1인당 민간인 희생을 얼마나 허용할지에 대한 기준은 상황에 따라 유동적이었다. 개전 초기 이 기준이 상당히 낮았던 것이 이 시기 희생자가 많았던 이유 중 하나로 꼽힌다.

이스라엘군이 운용하는 군사용 드론. [사진 연합뉴스]


AI 활용한 전쟁 기술 빠르게 발전

전황에 따라 공격의 방법이나 강도, 혹은 민간인 희생의 불가피함에 대한 판단이 달라지는 것은 전쟁에서 흔한 일일 터다. AI 기술이 없더라도 현장에서 누가 하마스 병력인지는 다른 방법을 써서 판단해야 했을 것이다. AI로 하마스 병력을 기대규모로 식별한 결과로 사상자가 늘어날 가능성과 AI로 식별 정확도를 높여 무고한 사람의 희생을 줄일 가능성 중 어느 쪽을 선택하는 편이 더 윤리적일까?

대답하기 어려운 문제임은 분명하다. 다만, 이 같은 결정의 근거를 제공하는 AI의 블랙박스에서 어떤 일이 벌어지는지 냉정히 검토해야 함은 분명하다. 사람이 AI의 판단이라는 변명 뒤에 숨어 윤리적으로 불투명한 일을 더 쉽게 결정하게 될 가능성도 있다. 민간인과 무장 병력이 섞인 가자 지구 같은 상황에서 누구를 어떤 식으로 공격할지 결정하는 것은 어렵고 고통스러운 일일 수밖에 없다. 이런 판단을 AI에 맡겨버리고, 자신은 AI 시스템의 지시를 따랐을 뿐이라고 합리화하는 군인이 나오지 말란 법이 없다. 

멀리 떨어진 기지에서 기계를 조작해 미사일 공격이나 포격을 가하거나, 비디오 게임을 하듯 드론을 보내 적군을 살상하는 현대전이 실제로 일어나는 사람의 희생에 대해 무감각하게 만든다는 비판이 이미 나오는 상황이다. 

그럼에도 AI를 활용한 전쟁 기술은 빠르게 발달하고 있다. 미국 공군은 장거리 미사일을 싣고 조종사 없이 최대 시속 1000km로 한 번에 5500km 이상 비행하는 AI 전투기 ‘XQ-58A 발키리’ 시험 비행을 최근 실시했다. F-16 전투기에 자율비행 시스템을 적용하는 시도도 한다. 중국이 개발 중인 AI 전투기는 시뮬레이션 훈련에서 마하 11의 속도로 적기 뒤로 날며 미사일을 발사, 미국 F-35 전투기를 8초 만에 격추했다. 드론이 비행 중 내는 소리나 깊은 바다에서 잠수함이 내는 소리를 인식해 경고하는 AI, 우선 공격 대상을 판단해 알려주는 AI 전차도 있다. 리비아 내전이나 아제르바이잔-아르메니아 전쟁에선 AI를 탑재한 드론이 적군을 감지하면 돌진해 자폭하는 공격이 쓰인 것으로 알려졌다.

전쟁을 계기로 발달한 AI가 인류에 기여할 수도 있을 것이다. 역사에는 전쟁이 기술 발전을 앞당긴 사례가 가득하다. 컴퓨터와 원자력 발전 기술은 제2차 세계대전 중 급속히 발달했다. 인터넷은 전쟁 중에도 끊기지 않는 통신망을 구축하려 만든 것이고, 내비게이션에 쓰이는 위성항법시스템(GPS) 역시 군사용으로 개발한 기술이 민간에 넘어온 것이다. 

하지만 더 많이, 더 효율적으로 죽이는 기술의 개발은 본능적 거부감을 안길 수밖에 없다. 전쟁이라는 부조리한 상황 속에서도 AI가 인간의 판단과 양심을 무디게 하지 않게 하는 불편한 의무를 우리는 져야 할 것이다.



ⓒ이코노미스트(https://economist.co.kr) '내일을 위한 경제뉴스 이코노미스트' 무단 전재 및 재배포 금지

많이 본 뉴스

11조4000억원짜리 에메랄드, ‘저주받은’ 꼬리표 떼고 23년 만에 고향으로

2“초저가 온라인 쇼핑 관리 태만”…中 정부에 쓴소리 뱉은 생수업체 회장

3美공화당 첫 성소수자 장관 탄생?…트럼프 2기 재무 베센트는 누구

4자본시장연구원 신임 원장에 김세완 이화여대 교수 내정

5“‘元’ 하나 잘못 보고”…中 여성, ‘1박 5만원’ 제주도 숙소에 1100만원 냈다

6'40세' 솔비, 결정사서 들은 말 충격 "2세 생각은…"

7"나 말고 딴 남자를"…前 여친 갈비뼈 부러뜨려

8다채로운 신작 출시로 반등 노리는 카카오게임즈

9"강제로 입맞춤" 신인 걸그룹 멤버에 대표가 성추행

실시간 뉴스

11조4000억원짜리 에메랄드, ‘저주받은’ 꼬리표 떼고 23년 만에 고향으로

2“초저가 온라인 쇼핑 관리 태만”…中 정부에 쓴소리 뱉은 생수업체 회장

3美공화당 첫 성소수자 장관 탄생?…트럼프 2기 재무 베센트는 누구

4자본시장연구원 신임 원장에 김세완 이화여대 교수 내정

5“‘元’ 하나 잘못 보고”…中 여성, ‘1박 5만원’ 제주도 숙소에 1100만원 냈다