• KIMA Newsletter

    인공지능(AI) 개발과 군사력 적용상 과제 [제965호]
      발행일  2021-03-30
    KIMA NewsLetter [제965호,2021.03.30] AI와 개발과 군사력 적용상 과제.pdf



     지난 2월 1일 유럽연합 의회는 인공지능(AI)에 대한 정의, 윤리적 적용 원칙 그리고 군(軍) 자동화무기시스템(RCWS)에 대한 법적 규정을 담은 유럽연합의 인공지능 개발 관련 법안(LAWS)을 찬성 274, 반대 52로 통과시켰다.  

     

    이번 법안은 지금까지 알려진 기계 중심의 인공지능 개념이 아닌, 인간 중심의 인공지능 개념을 강조하면서, 유럽연합 방위산업체들이 인공지능에 적용된 시스템을 개발할 시에 반드시 인성(human dignity)과 인권(human right)을 존중하도록 하며, 이를 넘을 시에는 관리자(인간)가 통제(brake)할 수 있어야 하고, 이에 대한 책임(responsibility) 소재와 신뢰성(accountability)이 확실해야 한다고 규정하였다.  

     

    또한 인공지능 정의를 조직내에서 기계가 하던 업무를 대신하는 메카니즘으로만 한정하고, 컴퓨터가 인공지능 알고리즘인 머신러닝(ML) 개념을 받아들이고 이것이 군사력 운용에 적용되는 경우, 반드시 대량살상을 유발하는 기계의 무자비함(indiscrimination)을 갖는 ‘킬러 로봇(Killer Robot)’이 되지 않도록 해야 한다고 규정하였다.

     

     특히 인공지능이 군사적 시스템 내에서 윤리적(ethic)으로 통제될 수 있도록 안전장치를 마련해야 한다며, 인공지능이 군사작전 지휘결심을 지원하는 수단이 되어야지, 인공지능에 따라 군사작전과 전술이 좌우되어서는 아니 된다고 규정하였다.  

     

    더욱이 인공지능에 검증되지 않은 가짜뉴스(disinformation)와 딥페이크 기술(deepfake technology) 등이 범람하지 않도록 사회정의(social justice) 원칙이 적용되어 인공지능이 무자비하고 무차별적 인명피해로 이어지지 않아야 한다고 규정하였다.  

     

    군사 전문가들은 이번 법안을 인공지능에 의해 킬러 로봇화되는 『전쟁 만능주의(Just War)』가 아닌, 『정의로운 전쟁(Justice War)』 구현할 수 있도록 해야 한다고 지적하였다.

     

      그동안 군사 전문가들은 다음과 같은 인공지능의 군사력 적용에 따른 부정적 현상을 우려하여 왔다.  

     

    첫째, 군사 지휘관들은 인공지능의 군사적 적용을 선호한다.   지난해 12월 7일『미 국방성 뉴스(DoD News)』는 특수전사령관 리차드 클라크 육군대장이 마번 프로젝트(Project Maven)에 따라 구축되고 있는 테라바이트 수준의 인공지능이 복잡한 전장 환경을 감시하고, 지휘결심에 도움을 주고, 특히 군수관리를 미리 예측하여 예산을 절감시키는 효과가 있다며, 향후 합동 다영역 지휘통제(JADC2) 구축에 적극 적용할 예정이라고 밝혔다. 군사 전문가들은 군 지휘관들이 너무 인공지능을 신뢰한다고 우려한다.  

     

    둘째, 사이버전으로 확산이다.   지난 2월 16일『The Enterprisers』는 인공지능이 군사력에 적용되는 경우, 인공지능이 군(軍)과 관련된 비정부단체(NGO)와 기업(enterprises)에 의해 사이버 공격 수단으로 이용될 수 있다면서 오히려 취약점으로 나타날 수 있다고 우려하였다.  

     

    특히 클라우드(Cloud) 기반의 데이터 처리에 악성코드(malware) 또는 소스를 인공지능 기능에 의해 심어 어떤 내용(contents)인지도 모른채 적으로부터의 사이버 공격을 받는 사례가 발생할 수 있다고 지적하였다.  

     

    셋째, 인공지능이 전쟁을 주도한다.   예를 들면 기계가 중심이 되고 인간이 소외되며, 시스템이 인간과 같이 생각하기 보다, 조작된 가짜 디지털 자료에 의해 작전과 전술을 지배하는 사례가 나타날 것이라고 우려한 사례였다.  

     

    넷째, 교육훈련 미흡이다. 즉 인공지능을 무기와 장비와 적용 시에는 어떤 개념 하에 시스템이 잘못 될 수 있고(malfunction), 누가 식별하여 통제(brake)하는가에 대해 교육과 훈련이 어렵다는 것이다.  

     

    더욱 심각한 문제로 인공지능이 적용된 시스템에서 문제가 발생되었을 때 이를 시정하는데 너무 많은 시간과 인력이 동원되어 무시하는 사례가 많다는 것을 들었다.   다섯째, 인공지식의 오류이다.  

     

    지난 3월 20일-21일『뉴욕타임스(NYT)(국제판)』는 미 구글, 아마존 등의 하이테크기업들이 구축하는 안면인식 자료들이 대부분 백인과 남성 위주로 구축되어 흑인여성인 경우는 인공지능 알고리즘이 이들을 ‘고릴라(gorilla)’로 판정한 오류를 범하였으나, 회사가 이를 은폐하고 있다고 보도하였다.  

     

    특히 이러한 오류에도 불구하고 이들 회사들은 이를 미 연방정부 경찰의 범죄수사에 도움을 주기 위해 자료를 주고 있다면서, 향후 인공지능에 의해 뜻하지 않는 인종차별과 여성편하 현상이 나타날 수 있다고 우려하였다.  

     

    특히『뉴욕타임스(NYT)』는 구글과 아마존이 이러한 문제를 시정하기 위해 윤리적 인공지능팀을 구성하였으나, 이들 회사들이 여전히 기계적 문제로 접근하고, 윤리적 문제로는 접근하지 않아 해결이 되지 않고 있다면서, 이를 시정하기 위한 공개적이며 투명한 검증 수단 구축 필요성을 강조하였다.  

     

    특히 안면인식이 원격화되고 자동화된 무기(RCWS)에 적용되는 경우, 전장에서 흑인여성 미군에게 뜻하지 않는 피해를 줄 수 있다고 우려하였다.  

     

    군사 전문가들은 현재 인공지능 만능주의에 의해 인공지능을 구축하는 것이 마치 군사강국이 되는 것처럼 되었다며, 미국, 중국, 러시아와 인도 등의 국가들을 대표적 사례로 들었다.   특히 이들 국가들이 인공지능 개발을 경계감시, 탄약공급 등 군수지원과 사이버 방어 등 분야로 한정해야 하며, 인공지능에 의해 자체시동(self-actuation)에 따라 발생될 문제점을 해소하는 자체적 통제(self-control)와 자체 규율화(self-regulation) 등의 안전장치를 해야 한다고 강조하였다.  

     

    지난해 11월 1일『Upgrad』는 미 국방성 고등기술연구원(DARPA) 주관의 프로젝트 마번과 스퀘드-X 시험, 중국 칭화대학교 인공지능 민군협력연구소의 Blowfish A2 인공물고기와 Ziyan무인기 개발, 인도 고위급 인공지능 위원회의 인공지능화된 무기와 장비 개발이 대표적 개발 사례라고 보도하였다.  

     

    궁극적으로 군사 전문가들은 인공지능의 군사적 운용은 동전 양면과 같은 효과를 낸다면서, 향후 사이버 안보 문제로 확대되어 더욱 윤리적 문제를 야기시킬 가능성이 있다고 우려하였다. 

     

    * 출처: UpGard, November 1, 2020; US DoD News, December 7, 2020; EU Press Release, February 1, 2021; The Enterprisers Project, February 16, 2021; The New York Times International Edition, March 20-21, 2021.

     

    사진/출처

    Flag of European Union, EU
     https://commons.wikimedia.org/wiki/File:Flag_of_Europe.svg

     

    저작권자ⓒ한국군사문제연구원(www.kima.re.kr)