• KIMA Newsletter

    『인공지능(Artificial Intelligence)』 적용과 문제점 [제1089호]
      발행일  2021-09-27
    KIMA Newsletter [제1089호,2021.09.27] AI의 허와 실.pdf

    제4차 산업혁명 기술의 대표적 사례는 인공지능(Artificial Intelligence)이며, 주요 적용 목적은 인간이 하는 일의 전부 또는 일부를 기계가 대행하는 것으로, 현재는 단순한 수학적 논리에 의해 운용되나, 향후 인공지능 알고리즘에 의해 마치 인간을 대신할 수 있다고 믿고 있다.  

     

    하지만 학계와 전문가들은 너무 인공지능 만능주의에 대한 과신으로 인한 부작용을 일으킬수 있다는 우려를 나타내고 있다.  

     

    특히 이는 미국 연방정부가 인공지능 기능을 연방정부 수사에 적용할 수 있도록 하고, 미 국방성이 차세대 무기와 장비에 인공지능 기술과 알고리즘을 적용하는 것을 방위산업체에 권장하면서 더욱 우려를 자아내고 있다.  

     

    또한, 제4차 산업혁명 기술을 개발하는 연구자들은 기계에 인간 지능 알고리즘을 제공하는 것만이 아닌, 잘못된 데이터와 검증을 거치지 않는 알고리즘에 의해 그동안 인간이 경험하지 못한 위험에 직면할 수 있다는 것에 대해 우려하고 있다.  

     

    특히 이들은 다음과 같은 사례를 들어 정부가 나서서 윤리적 규정과 인공지능을 적용할 분야를 구분해 주는 것이 필요하다고 제안하였다.  

     

    첫째, 2016년 수학자이자 상상 소설 작가 케시 오닐이 쓴『수학적 파괴가 만든 무기(Weapons of Math Destruction)』와 2019년 의사이자, 수학자이며, 사회학자인 루하 벤자민 박사가 쓴『기계 개발 이후의 무기경쟁(Race After Technology)』이 지적한 우려다.

     

    이들은 데이터를 활용한 알고리즘에 의한 인공지능은 인간을 지배하여 상상을 초월하는 재앙이 도래할 수도 있다고 우려하면서 인간 스스로가 이를 제한하지 못하면 정화되지 않은 수학적 데이터가 만든 알고리즘인 인공지능이 마치 인간과 같이 행동하여 인간을 지배하는 시대가 도래할 수 있다고 경고하였다.  

     

    둘째, 지난 4월 21일 유럽연합이 모든 회원국 정부에 강제적으로 적용해야 한다고 발표한『인공지능의 신뢰와 장점을 위한 유럽연합의 규정(Commission Proposes New Rules and Actions for Excellence and Trust in Artificial Intelligence)』을 들었다.  

     

    이 규정은 유럽 주요 국가들이 마구잡이 식으로 인공지능 만능주의(panacea)에 몰입하여 인공지능을 개발하고 모든 분야에 적용하려 한다면서 우선 인공지능 적용에 따른 위험 발생 가능성을 고려해야 한다고 지적한 규정이었다.  

     

    예를 들면 유아들이 인공지능이 적용된 인형에서 나오는 목소리만을 본인이 인지하는 목소리 음향 사이클로 인식하는 사회적 문제와 같은 전혀 예기치 않은 위험, 국가 산업기반체계, 교육제도, 안전규정, 취업  터뷰, 법률 해석을 대행하는 기능과 이민자와 난민 처리 등에 있어 인공지능 기능이 적용되어 무차별적 인식 오류(discrimination recognition)로 인해 범죄자들의 이민이 허용되고 특히 군사용 무기와 장비에 적용되어 피아 구별없는 또는 적의 사이버 조작 때문에 아군 무기와 장비가 아군을 공격하는 군사 위험 등의 3가지 가능성을 제기하였다.  

     

    이를 예방하기 위해 유럽연합 각국은 인공지능 적용에 따른 회원국 간 협력을 위해 유럽연합의 인공지능 개발 전략(European Strategy on AI)을 수립하고, 이를 집행하는 유럽 인공지능 위원회(European Artificial Intelligence Board)를 운영하고 있다면서 미국도 이를 받아들여야 한다고 지적하였다.  

     

    특히 인공지능 개발 시 제한을 연구개발 수위와 범위를 미리 제한하고, 인공지능 장점에 집중하지 않도록 하며, 인간 윤리 범위를 추월하지 않도록 하고, 인공지능 개발자에 대한 리더십과 윤리 교육이 필요하다고 지적하였다.  

     

    셋째, 지난 8월 2일『뉴욕타임스 국제판(The New York Times International Edition)』은 지금 미국 전역에 검증되지 않은 인공지능 알고리즘이 사회 전반에 걸쳐 적용되고 있으나, 다양한 문화와 피부색이 다른 인종이 공존하는 미국 특성을 이해하지 못하는 안면인식(facial recognition) 인공지능 알고리즘에서 심각한 문제를 일으키고 있다는 기사를 보도하면서 다음과 같은 대책을 연방정부에 촉구하면서 지난 4월에 유럽연합이 제정한 규정보다 더욱 엄격한 규정을 제정해야 한다고 주장하였다.  

     

    우선 획일적(melanoma)이며, 비과학적(unproved) 데이터가 인공지능 알고리즘에 사용되는 것은 방지해야 한다. 이를 위해 건전하고(healthy) 합법적(legal)인 생물 통계학적(biometric) 자료만이 인간을 대체하는 분야에 적용되도록 해야 한다.  

     

    특히 지난 8월 24일『Syndicate Project』는 인공지능 개발에 있어 적절한 데이터가 알고리즘 개발에 적용되도록 하는 것은 인간이 인공지능 기능을 갖춘 기계와 체계를 통제할 수 있는 유일한 방법이나 군사 분야는 통제할 방안이 없다고 지적하였다.  

     

    다음으로 인공지능 기능을 갖춘 기계와 체계를 가진 사용자는 인공지능의 만능주의에 빠지지 말아야 한다.

     

    지금은 너무 인공지능의 기능적 혜택이 강조되어 마치 인공지능을 이용만 하면 모든 것이 다 잘 진행되리라고 믿는 실수를 하고 있다고 지적하였다.  

     

    하지만 2016년『수학적 파괴가 만든 무기(Weapons of Math Destruction)』와 2019년 『기계 개발 이후의 무기 경쟁(Race After Technology)』 책자가 우려했듯이 인공지능은 수학적 연산일 뿐이며, 인간이 오랜 작업과 경험 때문에 갖고 있는 ‘감’을 대신하지는 않는다. 단지 표준화되고 구별력을 갖춘 알고리즘일 뿐으로 실수를 반드시 나타나게 되어있다.  

     

    그러나 대부분 사용자는 이런 우려에 대해 대응책을 강구하지 않으며, 인공지능이 일종의 가성의(pseudo) 과학적 데이터 축적에 의한 허풍(claptrap)이라는 것을 믿지 않는다. 구입하는데 과대한 비용을 사용하였으나, 당연히 그럴 만도 하다.  

     

    만일 이러한 문제가 자영업 등 민간산업체에서 나타나며, 공장을 폐쇄하거나 영업손실로 처리하면 해결이 되나. 국가 공공기관과 군사력에 적용되어 부작용을 나타내는 경우는 대재앙급 수준이다.  

     

    예를 들면 남녀평등 취업 체계에 적용된 인공지능이 나타낸 부작용이며, 이는 미국 연방정부가 아주 세심하게 개인정보를 데이터로 허용하는 조치를 했음에도 불구하고 발생할 예기치 못한 부작용일 것이다.  

     

    특히 미국 빅테크 기업과 방위산업체들은 이 점을 명심해야 한다. 예를 들면 페이스북이 가입자들의 개인정보를 어떻게 각종 앱 네트워크에 적용하였는지, 또한 이를 어떻게 관리하고 있는지, 문제가 발생하는 경우에 이를 저지할 수 있는 여건을 갖추고 있는지를 투명하게 공개해야 하며, 방산업체는 각종 첨단 무기와 장비에 적용된 인공지능 알고리즘이 과연 지휘관의 전투력 발휘만이 아닌 리더십 발휘에 도움이 되는지에 대한 윤리적 측면을 고려했는지를 국방성과 긴밀히 협의해야 한다.  

     

    대부분 인공지능 개발사들은 표준화되고, 검증되었으며, 고급화된 데이터만 인공지능 알고리즘 개발에 적용되어 문제가 되지 않는다고 주장하고 있으나, 이들은 아주 세심한 분야에서 나타나는 문제점들을 대부분 은폐하며, 임시방편적으로 수리하는 등의 조치로 대응하고 있는 것도 문제라고 지적하였다.  

     

    궁극적으로 전문가들은 현재 인공지능 개발 속도와 적용 범위가 너무 빠르게 확장되고 있다면서, 이를 검증할 수 있는 기계 중심이 아닌, 인간 중심의 예방책과 대응 방안이 미흡하다는 것이 더 큰 문제라고 우려하고 있다.

     

    * 출처: European Union, Commission, April 21, 2021; The New York Times International Edition, August 2, 2021; Syndicate Project, August 24, 2021.

     

    저작권자ⓒ한국군사문제연구원(www.kima.re.kr)