본문 바로가기

예측 불가능한 로봇이 인간을 무참히 살해한다면

중앙선데이 2017.03.05 02:19 521호 21면 지면보기
[IT는 지금] 실용화 눈앞에 둔 인공지능 병기
아서 클라크의 원작 소설을 바탕으로 1968년 개봉한 스탠리 큐브릭 감독의 SF영화 ‘2001 스페이스 오디세이’의 한 장면. 우주선 디스커버리호를 운영하는 인공지능 ‘할 9000’은 승무원들을 감시해 자신을 정지시키려는 속셈을 눈치채고 제거해나간다. 인간을 공격하는 인공지능의 시초 격인 존재다. [중앙포토]

아서 클라크의 원작 소설을 바탕으로 1968년 개봉한 스탠리 큐브릭 감독의 SF영화 ‘2001 스페이스 오디세이’의 한 장면. 우주선 디스커버리호를 운영하는 인공지능 ‘할 9000’은 승무원들을 감시해 자신을 정지시키려는 속셈을 눈치채고 제거해나간다. 인간을 공격하는 인공지능의 시초 격인 존재다. [중앙포토]

 최순실 사태로 조기 대선이 이뤄질 가능성이 커졌다. 예비 대선후보들은 이미 민심을 사로잡기 위한 다양한 공약들을 내놓고 있다. 그 가운데 군 복무기간 문제는 대통령 선거 때마다 나오는 단골 메뉴 중 하나다. 문재인 더불어민주당 전 대표는 군 복무를 1년으로 단축하겠다는 공약을 내세워 큰 주목을 받은 바 있고 바른정당의 남경필 경기도 지사는 모병제를 적극적으로 주장하고 있다. 이런 주장은 병력 감소와 전문성을 떨어뜨릴 수 있다는 우려 때문에 포퓰리즘이라는 비판을 받기도 한다.

군 복무기간 단축, 모병제 도입 등
로봇·AI 활용으로 가능해 질 수도
잘못된 학습 통해 태어난 나쁜 AI
사람을 적으로 보면 통제 어려워


그러나 병력만으로 국방력을 평가하는 것은 잘못된 생각이다. 2차 세계대전 이후 국방력을 결정하는 중요 요인 중 하나가 과학기술이기 때문이다. 정보기술(IT)의 발전으로 앞으로 이런 경향이 더 심해질 것이다. 그렇다면 가까운 미래에는 어떻게 IT 기술이 국방력을 강화할 수 있을까.
 
1903년 12월 라이트 형제가 비행기를 개발하면서 공중이라는 새로운 영역이 부상했다. 1914년 최초의 공중전이 전개된 데 이어 2차 세계대전 이후에는 제공권 장악이 전쟁의 승패를 가르는 요소가 됐다. 빠른 속도로 공중을 날아다니면서 지상과 해상을 위에서 공격할 수 있기 때문이다.
 
요즘은 전쟁의 승패를 가르는 요인으로 공중에 이어 사이버 공간이 떠오르고 있다. 사물인터넷(IoT)의 확산으로 자동차·건물·안경·옷·시계 등이 네트워크를 통해 사이버 공간으로 연결되고 있기 때문이다. 사이버 공간을 장악하게 되면 해킹으로 자동차를 원격으로 제어하고 발전소와 같은 주요 시설들을 파괴할 수 있다. 해킹으로 무인 스텔스기를 납치해서 역공까지 가능하다.
 
이미 2010년에는 이란 원자력 발전소에서 해킹으로 1000여 개 이상의 원심분리기가 파괴된 사건이 있었고, 2011년 12월에는 첨단 무인기 RQ-170을 해킹해 탈취한 일도 벌어졌다. 2015년에는 크라이슬러 자동차를 원격 해킹하는 일이 공개되면서 140만 대를 리콜하기도 했다.
 
이처럼 컴퓨터 앞에서 키보드와 마우스 움직임만으로 국가 전체를 혼란에 빠뜨리거나 전쟁에서 중요 정보를 탈취할 수 있어, 갈수록 사이버전의 중요성이 커질 전망이다. 북대서양조약기구(NATO)는 사이버전을 새로운 전쟁 영역으로 공식화했는데, 그만큼 사이버 공간이 현실 세계에 위협할 정도로 영향력이 켜졌음을 의미한다.
 
베테랑 조종사, 공중전서 프로그램에 완패
테러리스트를 제압하는 시연에 나선 킬러 로봇 ‘도고’.[제너럴로보틱스]

테러리스트를 제압하는 시연에 나선 킬러 로봇 ‘도고’.[제너럴로보틱스]

사이버 공간의 중요성이 커짐과 동시에 인공지능(AI)을 활용한 첨단 공격무기도 등장하고 있다. 인공지능은 소규모 전투에서부터 전쟁의 방향을 결정하는 국가 전략에 이르기까지 모든 부분에 적용될 것으로 보인다. 전투에서는 킬러 로봇의 활용이 늘어날 전망이다. 전투용 로봇인 킬러 로봇은 1942년 단편소설 ‘런어라운드’에서 처음으로 소개됐다. 대표적인 킬러 로봇으로 ‘도고(Dogo)’가 있다. 도고는 지난해 8월 이스라엘 로봇회사인 제너럴로보틱스가 개발했다. 크기가 작고 가벼워서 건물 내 전투에서 적합하다. 원격조정으로 적군을 진압하는 형태다.
 
국내에는 비무장 지대에 배치된 SGR-1이 있다. SGR-1은 감시용 로봇으로 표적물을 식별하면 암구호를 요구한다. 암구호에 대답을 못하면 중앙센터에 알려 근무 중인 군인이 최종 침입자 여부를 판별해 대응하게 된다.
 
공중전을 위한 킬러 로봇도 개발되고 있다. 무인 스텔스기가 이러한 킬러 로봇 유형에 속한다. 영국 항공 방위산업체인 BAE시스템스는 무인 스텔스기인 ‘타라니스(Taranis)’를 개발했다. 타라니스는 인간의 개입 없이 자율 비행이 가능하고 정밀 유도폭탄이 장착돼 있어 목표 대상을 정확하게 공격할 수 있다. 그뿐 아니라 적의 공격을 감지하고 이에 대응할 수 있도록 시스템이 설계돼 있다.
 
대부분 킬러 로봇들이 공격을 자동으로 수행할 수 있게 설계는 되어 있으나 정확성의 문제가 있다. 그래서 실제로는 중간에 사람이 개입해 조종한다. 그러나 현재 인공지능 기술이 빠르게 발전하고 있어, 이러한 문제는 해결될 것으로 보인다. 지난해 미 공군연구소에서 개발한 인공지능 ‘알파’가 베테랑 공군 조종사를 이겨 화제가 됐다. 알파는 개인용컴퓨터에서 돌아가는 35달러짜리 인공지능이다. 여기에 맞선 진 리는 미 공군 대령으로 퇴역하기 전까지 수천 명의 공군 조종사를 훈련시킨 경험이 있을 정도로 베테랑 조종사다.
 
하지만 리는 공중 시뮬레이션 전투에서 알파를 한 번도 이기지 못하고 참패했다. 미 공군연구소에 따르면 유전 퍼지 구조 알고리즘을 사용해서 알파가 인간보다 250배 더 빠르게 상황을 판단해 움직인다. 리는 80년대부터 인공지능과 공중전을 벌여왔는데, 한 번도 이기지 못한 경우는 알파와의 교전이 처음이라고 한다. 영화 터미네이터 시리즈에서처럼 기계 로봇을 따돌리는 인간 주인공 모습을 현실에서 찾아보기는 어려울지도 모르겠다.
 
같은 시간에 수집하고 처리할 수 있는 정보의 질과 양에서 인공지능은 인간을 월등히 뛰어넘는 모습을 보인다. 그래서 소규모 전투뿐 아니라 전쟁전략까지 인공지능이 담당할 가능성이 크다. 인공지능이 전투 시나리오별로 성공 확률을 계산해 전략을 구상하는 것이다. 인공지능은 사이버전에도 활용이 가능하다. 이미 ‘악성 봇(Bot)’이라는 것을 이용해 사람이 아닌 인공지능이 해킹을 감행하고 있다. 해킹을 감지하고 방어하는 것도 봇이다. 이러한 점을 고려했을 때 앞으로 사이버 공격과 사이버 방어 모두 인공지능인 봇이 담당하게 될 가능성이 커보인다.
 
오작동 때 누가 책임져야 할지도 불명확
첨단 기술을 활용한 인공지능과 로봇의 도입은 국방에 필요한 인력을 줄이는 장점이 있다. 그리고 위험한 전투에 사람 대신 로봇을 투입해 인명 피해를 최소화할 수 있다. 예비 대선후보들의 군복무 관련 공약들의 실현 가능성이 커진 것이다. 하지만 이 같은 국방 첨단화가 반드시 긍정적인 면만 있는 것은 아니다. 사회적으로 3가지 논쟁을 일으킬 것으로 보인다.
 
첫째, 해킹의 위협이다. 재래식 무기와 달리 해킹을 위한 무기는 소프트웨어 방식이기 때문에 쉽게 배포할 수 있다. 사이버전의 중요성이 커지면서 국가 차원에서 높은 수준의 군사용 프로그램을 만들고 있다. 그런데 이런 사이버 무기는 쉽게 복제할 수 있다. 일반인들 손에 넘어가면 사이버 공격의 화살이 우리에게로 돌아올 수 있다.
 
예를 들어 서비스거부(DoS) 공격의 경우 마음만 먹으면 누구나 쉽게 실행할 수 있다. 인터넷에서 쉽게 공격용 소프트웨어를 구할 수 있기 때문이다. 2012년 국내에 초등학생을 포함한 10대 학생들이 정부 사이트에 서비스거부 공격을 감행해 적잖은 논란이 된 적이 있다.
 
둘째, 인공지능의 예측 불가능성이다. 현재까지 스티븐 호킹을 포함한 수많은 학자가 킬러 로봇을 반대하고 있다. 이유는 인공지능의 행동을 예측하기 어렵기 때문이다. 인공지능 예측 불가능성은 오류와 학습 요인으로 분류할 수 있다.
비무장지대에 배치된 감시로봇 SGR-1.

비무장지대에 배치된 감시로봇 SGR-1.

 
오류로 인한 예측 불가능은 기계적 결함으로 인해서 발생하는 인공지능 위협이다. 2016년 7월에는 미국의 한 쇼핑몰에서 치안을 담당하는 로봇 경찰이 16개월 유아를 공격해서 다치게 한 사고가 여러 차례 발생했다. 이런 경우를 보면 인공지능이 사람 전체를 적으로 돌리는 오작동 행위가 발생하는 것이 전혀 불가능한 것만은 아니다.
 
학습 요인은 인공지능의 학습 범위를 예상하지 못해 발생한다. 인공지능의 학습량은 사람이 관리 범위를 벗어날 정도로 방대한데 무엇을 배우느냐에 따라 결과가 달라진다. 영국 레딩대에서는 소형로봇 대상으로 학습에 따라 결과가 어떻게 달라지는지를 연구한 결과 학습 결과가 누적될수록 같은 시스템 기반의 로봇이라도 성격이 뚜렷하게 달라진 것으로 나타났다. 군사 전문가인 피터 싱어는 이를 ‘착한 인공지능과 나쁜 인공지능’으로 명명했다. 이러한 유형의 대표적인 예가 마이크로소프트(MS)에서 개발한 채팅용 인공지능 ‘테이’다. 개발자가 의도치 않게 인종차별적인 막말을 학습해 마구 쓰는 바람에 미국 사회에서 큰 쟁점이 됐다.
 
셋째, 윤리성이다. 로봇이 감정 없이 사람들을 무참히 살해한다면 어떨까? 이는 인간의 존엄성이라는 크나큰 윤리적 문제를 일으킨다. 그리고 인공지능이 문제를 일으켰을 때 책임 소재에 대한 문제도 있다. 인공지능은 학습범위에 따라 행동결과가 달라지기 때문에, 모든 책임을 개발자에게 돌리는 것에는 한계가 있다. 앞으로 인공지능이 빠르게 고도화 됨에 따라 이러한 윤리문제가 계속 대두될 전망이다.
 
 
유성민 IT칼럼니스트
유성민 정보통신기술(ICT) 융합 및 보안솔루션 전문가. 전기차, 스마트시티사업 분야를 거쳐 현재 보안 솔루션 회사에서 일하고 있다. 저서 『사물인터넷(IoT) 시대의 위협』과 『미래전쟁』 등의 역서를 냈다. http://blog.naver.com/

선데이 배너

공유하기
광고 닫기