• KIMA Newsletter

    로봇과 전사 간 회색지대 발생 해소 방안 [제1402호]
      발행일  2023-01-26
    KIMA Newsletter [제1402호,2023.01.26] 로봇과 전사 간 회색지대 해소.pdf



    Columbia Center of AI Technology 2022 영상 갈무리
    * 출처 : Youtube ‘Columbia Engineering’(☞Click)

    미래전은 상상을 초월하는 수준으로 자동화·자율화·무인화된 로봇(robot)이 탄생해 인간(human being)을 대체함으로써 대리전을 치를 것으로 전망되고 있다.
    세계적인 로봇을 개발하는 선도적 연구소인 미국 콜롬비아대학교 부설 크리에이티브 머신 랩(Creative Machines Lab) 연구소는 최근 로봇이 ‘인식(Consciousness)’을 갖도록 하기 위한 연구 프로젝트 『c-word』를 수행하고 있다.
    이번 c-word를 주관하는 호드 립슨(Hod Lipson) 박사는 엔지니어 전공이나, 컴퓨터공학 및 철학 등을 전공한 교수들도 연구진으로 구성하고 있다. 이들은 “지금까지의 디지털 과학(digital science)이 인공지능(artificial intelligence)과 첨단 신소재(materials) 등이 인간의 인식을 대신할 수 있는가”에 대한 답을 찾고자 연구를 진행하고 있다.
    우선 “왜 인식(consciousness)인가”에 대해 연구자들은, 인간을 대체하는 로봇이 점차 증가하는 것을 우려한다.
    로봇이 인간이 해야 할 일들을 대신하는 ‘적용성(adaptability)’은 인간과 기계 사이를 연결하는 각종 정보(intelligence), 방법(method), 인공지능(AI), 스스로 배워가는 진화인 머신러닝(machine learning) 등에 의해 로봇 내에 빌트인(built-in)된 상황이나, 딥러닝(deep learning)에 의해 로봇이 스스로(thyself) 사고하는 단계로 발전한다는 우려이다.
    다음으로 인공지능 등에 의해 각종 로봇에게 주입된 정보들이 ‘코드화’되는 과정을 우려한다. 특히 엔지니어 분야 과학자들은 로봇에게 더 많은 기능과 정보를 주입해 우수한 로봇을 만드는 것에 집중하게 되면, 많은 정보가 코드화된 로봇의 행동이 예상치를 훌쩍 넘기는 결과가 나타낼 수 있다고 우려한다. 로봇이 빌트인에 의해 행동할 영역이 단순하다면 문제가 없으나, 과학기술 발전에 따라 영역이 너무 많이 변화돼 로봇이 주변 현상에 따라 행동할 수 있는 가능성이 제기되기 때문이다.
    호드 박사가 주장한 로봇 인식 연구에 추가해 이탈리아 팔레르모대학교 안토니오 첼라 박사는 “로봇이 활동할 환경에 따라 ‘현상적 인식(phenomenal consciousness)’을 가져야 한다”며, “로봇이 인간의 뇌(brain)와 같은 기능을 갖게 해야 한다”고까지 주장한다. 미국 듀크대학교 로봇공학과 보위안 천 박사는 “로봇 제작시 인간에 의한 교육 및 연습이 가능하도록, 또 보다 유연성을 갖도록, 다변화된 인공지능을 적용해 제작해야 한다”고 주장한다.
    반면, 철학자들은 “로봇이 인간을 대신해 생산을 하되, 반드시 제한을 두고 로봇이 알고리즘을 스스로 만들어 행동하지 못하도록 제어수단을 강구해야 한다”고 강조한다. 즉, 딥러닝 알고리즘에 제한을 두고 인공지능
    범위에 윤리적인 기준을 둬 로봇이 인간의 인식을 넘어서는 사례가 없도록 해야 한다는 것을 주장한다.
    특히 “로봇이 인지성(cognition)을 갖고 인공지능에 의한 알고리즘이 지적 행동으로 가지 않도록 해야 한다”며, 이러한 적용을 받은 로봇을 ‘세노로봇(xenorobot)’이라고 정의했다. 즉, 로봇은 행동만 해야지 스스로 독백(monologues)을 하거나, 인간과 대화(chatting)를 해서는 안 된다고 주장하고 있다.
    이처럼 로봇공학을 연구하는 과학자·엔지니어·철학자들의 우려가 무기와 장비를 로봇화 하려는 국방 과학자들에게 “미래전에서 전사와 로봇 간 ‘회색지대(grey zone)’가 나타날 것”이라는 우려와 “이를 해소할 방안을 강구해야 한다”는 책임감으로 나타났다.
    우선 국방 과학자들은 “회색지대가 통상적 교리적 정의인 평시와 전시 사이의 애매모호한 전투 상황만을 나타내는 것이 아닌, 전사와 로봇 간 애매모호한 상황에 전장에서 나타날 것”이라고 우려한다.
    실제 2019년 4월 3일 영국 『국제전략문제연구소(IISS)』 연구보고서는 “군사교리상 회색지대는 전쟁과 평화 사이의 전투 상황”으로 정의했으나, 2020년 10월 8일 『테크모니터(Techmonitor)』는 “2014년 러시아가 우크라이나 크림반도를 강제로 병행할 당시 러시아 정규군도 아니고, 민간인도 아닌, 용병과 같은 군인들을 크림반도에 투입한 상황을 하이브리드전 또는 회색지대 양상이라고 했으나, 로봇 등의 등장으로 전사와 로봇 간 차별이 점차 애매모호해지는 회색지대도 나타나고 있다”고 평가했다.
    주된 이유로 전사보다 로봇 투입이 더 많아질 추세에 따른 전장에서의 우려였다. 미래전에서 인간보다 로봇이 많이 투입될 것이며, 전장에서의 로봇을 인간이 반드시 통제할 수 있어야 한다고 강조한다.
    단순 제품 생산을 위한 민간산업 분야가 아닌, 살상력을 보유해야 하는 전장에서의 로봇은 대부분 인공 인식(artificial consciousness)을 갖추고 있어 지상, 해상, 수중, 공중에서 자유롭게(freedom) 전술 작전을 수행하게 될 것이며, 이로 인해 자칫 아군 전사를 살상하는 행위가 나타날 가능성을 우려한다.
    실제 2021년 11월 29일 『카테혼(Ketehon)』은 “2019년 8월과 10월에 미 육군과 국방부가 회색지대에서의 정보와 전술범위를 제한하는 지침을 제정했으며, 전사가 전장에서 로봇을 통제하기 위한 다양한 방법을 제정했다”고 보도했다.
    하지만 민간 대학교에서 로봇에게 인식(consciousness)을 주입할 수준의 연구가 진행되고 있어, 향후 미래전에서 로봇이 인간 전사의 통제를 넘어 스스로(thyself) 행동하는 최악의 상황이 발생할 가능성이 클 것이다.
    이에 지난 1월 19일 미국 『뉴욕타임스 국제판』은 “과학자들이 기계에 인간의 지적 사고를 수행하는 정보, 기능과 코드를 과도하게 빌트인 함으로써 인간과 로봇 간 구분이 애매모호해지고, 로봇의 상황인식 능력이 향상되고 있다”면서, “만일 이러한 상황이 전장으로 접목되면, 피아를 구분하기 어려운 회색지대 또는 하이브리드전과 같은 전투가 항시 발생할 가능성이 크며, 그 피해도 상상을 초월하는 수준이 될 것”으로 전망했다.

    * 출처 : IISS, April 3, 2019; The Conversation, June 17, 2019; Techmonitor, October 8, 2020; Katehon, November 29, 2021; The New York Times International Edition, January 19, 2023, p. 9.

    저작권자ⓒ한국군사문제연구원(www.kima.re.kr)