• KIMA Newsletter

    인공지능(AI) 개발 규정화 방안 논의 [제1656호]
      발행일  2024-07-08
    KIMA Newsletter 제1656호 인공지능 개발 규정화 방안 논의.pdf



    한국과 영국은 지난 5월 21일과 22일 양일간 “인공지능 서울 정상회담(Artificial Intelligence Seoul Summit, 이하 ‘AI Seoul Summit')”을 공동 개최했다. 이번 회의는 지난해 영국 블레츨리 파크에서 개최된 AI 안전 정상회담의 후속 조치로, 한국 윤석열 대통령과 영국 리시 수낙 총리가 주관했다.

     

    화상회의로 진행된 이번 회의에서는 북미, 아시아, 유럽연합, 중동 등 총 27개국 정상들이 ‘안정’, ‘혁신’, ‘포용’의 3개 주제의 AI 거버넌스 구축에 노력을 기울이기로 합의했다.

     

    이번 AI Seoul Summit은 처음으로 AI 발전과 규제를 동시에 다루는 주제로 개최했으며, 정부기관뿐만 아니라, AI 관련 기업, 연구소, 이익단체들도 참가한 회의였다.

     

    특히 캐나다 토론토 대학교 전략관리학과 교수 조슈아 갠스(Joshua Gans) 박사가 AI 발전과 규제에 대한 구체적인 방안을 발표해 주목받았다. 주요 내용은 다음과 같다.


    세계는 새로운 과학기술이 도래할 때마다 나타나는 테크노포비아(technophobia)를 보여왔으며, AI에 대해서도 과거와 다른 테크노포비아를 보이고 있다. 하지만 AI가 위험보다는 혜택이 더 클 것이기에, 인간은 이를 극복해야 한다. 많은 과학자들은 “AI 발전에 따른 후유증과 파급효과가 아직 나타나지 않았다”며, ChatGPT-4 발표 이후 인류의 재앙을 일으킬 만한 혁신적인AI 체계가 없었다고 주장한다.

     

    2023년 3월, 약 1천 명의 권위 있는 과학자들이 AI 개발을 약 6개월 정도 중단하자는 ‘AI 잠정 중단 합의서’를 발표했다. 그러나 실제로 AI 개발을 중단하거나, 잠정 중지한 사례는 없었다. 그렇다고 ChatGPT-4보다 더 혁신적인 AI 체계가 나오지도 않았다.

     

    현재 AI에 대한 전문가들의 시각은 극명하게 대립하고 있다. 많은 과학자들은 AI 발전이 되돌릴 수 없는(irreparable) 추세이기에 인내심을 갖고 지켜봐야 한다고 강조한 반면, 일부는 AI가 군사 분야에 적용될 경우 핵전쟁 등을 유발할 가능성을 제기하며 AI 개발을 규제해야 한다고 주장한다.

     

    우리는 AI에 테크노포비아적으로 우려(fear)하기보다 AI가 군사 분야에서도 인간에게 도움(benefits)을 줄 수 있도록 방향을 잡아야 한다. 특히 많은 AI 관련 신생기업(startup)들이 긍정적인 AI 알고리즘을 개발하도록 격려해야 한다.

     

    지금까지 혁신적인 과학기술은 인류에게 위기(risk)와 혜택(benefit)을 동시에 줬다. 따라서 이번 AI 개발로 나타날 위기를 극복하기 위한 방안을 제도화함으로써, 혜택을 극대화해야 한다.

     

    ‘식별이 가능한 부작용(identifiable harms)’을 예측해 AI를 오직 이윤(cost)만을 위해 사용하지 않고, 군사 분야에서도 로봇(robot)이 인간 전사(warrior)를 통제하지 않도록 해야 한다. 즉, AI의 인류사회 적용을 시장 논리와 전장에서 승패 논리에 따라서만 개발되지 않도록 해야 한다.

     

    일부 우려되는 AI로 인한 인간의 교육시스템 파괴와 일자리 상실은 기우에 불과하다. 새로운 과학기술은 항상 의도하지 않은 결과와 예측이 불가능한 상황을 만들었다. 이를 교훈으로 AI 알고리즘을 개발하고 이를 인류사회에 적용하려는 정부, 군, 기업들이 식별이 가능한 다양한 부작용을 사전에 검증하는 실험을 거듭해야 한다.

     

    특히, AI 네트워크 플랫폼이 확산하기 전에 AI 적용에 따른 문제점을 식별해 규제해야 한다. AI를 사용하든 사용하지 않든 인류 사회에는 별다른 차이가 없을 것이기에, AI에 대한 부정적 시각을 일방적으로 주장하는 '가짜 딜레마(false dilemma)'에 빠지지 않도록 해야 한다.

     

    결론적으로 조슈아 박사는 “AI를 인류사회에 적용하기 전에 정부, 연구기관, 기업들이 어떠한 혜택과 위험이 나타나는지를 실험적으로 평가해 인간이 예기치 못한 부정적 결과(unintended and unwelcome)가 나타나지 않도록 하는 AI 규정화를 조속히 취해야 한다”고 강조했다.

     

    * 사진 설명 : AI SEOUL SUMMIT

     

    * 사진 출처 : AI SEOUL SUMMIT 홈페이지

     

    * 내용 출처 : Foreign Affairs, January 12, 2024; Chicago Syndicate, May 31, 2024; Korea JoongAng Daily, June 10, 2024, p. 9.

     

    저작권자ⓒ한국군사문제연구원(www.kima.re.kr)