본문 바로가기

[차미영의 미래를 묻다] 잘못 저지른 인공지능, 처벌할 수 있을까

중앙일보 2020.05.11 00:22 종합 24면 지면보기

인공지능의 권리와 의무 

차미영 기초과학연구원 그룹장

차미영 기초과학연구원 그룹장

지난해 과학의 날(4월 21일), 필자는 대전 지역 학생들과 특별한 수업을 했다. 학생들에게 산업 및 의료 현장에서 쓰이는 로봇을 보여주고, 인간과 같은 수준에서 생각하고 말하는 로봇이 존재한다면 어떤 일을 해보고 싶은지 상상해 그려보도록 했다. 초등학교 저학년 어린이들은 로봇과 함께 축구나 줄넘기 등의 놀이를 하는 모습을 그렸다. 반면 중학생들이 그린 것은 로봇이 숙제를 도와주고 집 청소를 하는 동안 자신은 노는 광경이었다.
 

미래에는 AI가 기업의 정책 결정
이익 앞세워 환경 오염시킬 수도
소설 쓰고 작곡하는 인공지능에
저작권 부여해야 하는지도 논란

오늘날 인공지능(AI)과 로봇은 위험하고 궂은일을 하는 산업 현장을 비롯해 개인 비서, 신약 개발, 그리고 금융·정책 분야에서의 주요한 의사결정 도구 등으로 다양하게 활용된다. 인공지능과 로봇은 인지와 감성을 다루는 영역으로도 진출하고 있다. 인간의 지적 능력과 비등한 수준까지 발전한 인공지능은 기술·산업·경제 등 사회 전반에 막대한 영향력을 끼치고 있다. 이제는 법·제도가 인공지능을 어떻게 포괄할지 논의할 시점이 왔다. 특히나 지식재산권에 대한 논의가 급선무다. 인공지능이 인간의 지적 능력의 산물인 발명·저작·창작의 영역까지 들어왔기 때문이다.
  
AI가 그린 초상화, 5억원에 팔려
 
인공지능이 그린 초상화 ‘에드몽 드 벨라미’. 경매에서 5억3000만원에 팔렸다. [중앙포토]

인공지능이 그린 초상화 ‘에드몽 드 벨라미’. 경매에서 5억3000만원에 팔렸다. [중앙포토]

인공지능이 창작하는 ‘Made by AI’ 예술 시장은 이미 열리기 시작했다. 스페인 말라가대학이 개발한 인공지능 작곡가 이야무스(Iamus)가 6분 만에 작곡한 교향곡은 런던 심포니 협연 무대에 올랐다. 일본 하코다테대학의 인공지능이 쓴 소설은 일본에서 공상과학(SF) 문학상 1차 심사를 통과했다. 딥러닝 알고리즘이 그린 초상화 ‘에드몽 드 벨라미(Edmond de Belamy)’는 미국 뉴욕 크리스티 경매에서 43만2500달러(약 5억3000만원)에 낙찰됐다. 시장이 우리 세상과 마음을 반영한다는 점을 고려한다면, 인공지능 예술의 가치는 이미 충분히 인정받은 셈이다.
 
그렇다면 이런 인공지능이 지식재산권을 가질 수 있을까. 이는 큰 시각에서 인공지능에 ‘법인격(개인이나 회사처럼 권리와 의무의 주체가 될 수 있는 자격)’을 부여해도 되는지를 묻는 중요한 질문이다. 법인격은 인간에게만 국한된 개념이 아니다. 사회가 복잡해지며 국가와 기업을 비롯한 조직도 법인격을 갖게 됐고, 일부 자연(오염시키는 사람을 상대로 소송할 권리를 가진 뉴질랜드 왕가누이 강 등)에까지 그 영역이 확대됐다.
 
하지만 이 과정은 순탄치 않았다. 과거 새로운 객체에 법인격을 부여할 때마다 오랜 논의와 사회적 합의를 거쳤다. 인공지능에 법인격을 인정할 것인가에 대해서도 상반된 의견이 팽팽하다. 인정해야 한다는 측은 “인공지능의 창작물을 지식재산권으로 보호하지 않는다면, 무단복제 때문에 새로운 인공지능에 대한 투자가 줄고 혁신을 지속하기 어려워져 공공의 사회·경제적 혜택이 줄 것”이라고 주장한다. 많은 기술 옹호자들은 이런 논리를 바탕으로 인공지능과 로봇에 기업과 같이 제한된 법인격을 부여하자고 한다.
 
반대로 인공지능에는 권리가 필요 없다는 논리도 있다. 기술은 인간을 돕기 위한 도구의 기능에 국한돼야 한다는 도구주의에 근거한 주장이다. 또한 인공지능에 법적 권리와 책임을 준다면 이를 악용한 책임 회피 사례가 늘어날 것이라고 지적한다. 기업이 중대한 사고를 내고서도 책임을 경영진이 아니라 인공지능의 탓으로 떠넘길 수 있다는 뜻이다.
 
인공지능은 현재 기술로는 처벌할 수 없는 존재다. 이 점이 인공지능에 대한 법인격 논의를 딜레마에 빠뜨린다. 법적 처벌은 흔히 금전적 배상이나 신체활동 자유의 억압 형태로 이뤄진다. 그러나 둘 다 인공지능에는 적용할 수 없다. 설령 인공지능 자체를 삭제시키는 등의 처벌이 존재한다고 하더라도, 인공지능이 처벌을 두려워하지는 않을 것이다.
 
이런 상황에서는 어떤 일이 일어날까. 예컨대 인공지능이 정책적 결정을 하는 기업이 막대한 이익을 내기 위해 엄청난 환경오염을 일으키게 되더라도, ‘피해에 대해 보상하면 된다’고 계산할 수 있다(물론 인간 경영자가 이끄는 기업도 마찬가지의 선택을 할 수 있겠지만 말이다). 이렇게 자율적으로 판단하는 인공지능이 추구하는 목표는 인간의 잣대와 다를 수 있으므로, 법인격을 함부로 인정하면 파괴적인 결론에 이를 수 있다.
 
초·중·고생들이 그린 ‘로봇 친구와 함께 사는 미래’의 모습. 인류가 인공지능·로봇과 평화롭게 살아가려면 인공지능의 의무와 권리 등을 명확히 규정하는 제도가 필요하다. [사진 차미영 그룹장]

초·중·고생들이 그린 ‘로봇 친구와 함께 사는 미래’의 모습. 인류가 인공지능·로봇과 평화롭게 살아가려면 인공지능의 의무와 권리 등을 명확히 규정하는 제도가 필요하다. [사진 차미영 그룹장]

또 다른 논점은 인간의 뿌리 깊은 본성인 ‘복수’의 문제다. 영국 배스 대학의 스티븐 파인먼 명예교수는 저서 『복수의 심리학』에서 “복수심은 인간의 가장 원초적이고 일차적인 욕구”라고 했다. 그렇다면 인공지능의 결정으로 피해를 본 사람은 과연 금전 보상만으로 만족할까. 인공지능의 선택이 법을 어긴다면 사람들은 누구에게 책임을 묻고 어떻게 보상받기를 원할까.
 
인공지능에 법인격을 부여하는 문제는 사회적 합의가 필요한 중요한 결정이다. 미래 사회를 영위할 후손들에게 큰 영향을 끼친다. 예를 들어 인공지능의 창작물에 지식재산권을 부여하면, 미래에는 창작 활동이 어려워질 수 있다. 인간이 교향곡을 만들고 소설을 쓰는 데는 오랜 시간이 걸리지만, 인공지능은 몇 분이면 가능하다. 인공지능은 24시간 쉬지 않고 창작물을 쏟아내면서 지식재산권을 확보할 것이다. 그 틈새를 비집고 새로운 창작을 하기는 여간 어려운 일이 아니다.
  
인공지능·로봇 학대금지는 대세
 
이 모든 논의를 넘어 인공지능에 부여할 권리 가운데 적극적인 지지를 받는 의견이 있다. 인공지능·로봇에 대해 물리적·비물리적인 학대를 금지하자는 MIT 케이트 달링 박사의 주장이다. 아픔을 느끼지 못하는 인공지능에 이러한 권리는 관심의 대상이 아닐 것이다. 그런데도 이 권리가 세계적인 지지를 받는 이유는, 로봇을 학대하는 것을 보며 자라난 아이들이 커서 폭력성을 띨 수 있기 때문이다.
 
인공지능의 시대에 우리가 선택할 법·제도는 여러 가지를 고려해야 한다. 포용성 또한 필요하다. 반복적이고 노동 집약적인 블루칼라 직업을 로봇이 대체하고, 많은 화이트칼라 직업도 인공지능이 대체하고 있다. 일자리에서 밀려나는 이들을 어떻게 끌어안을지 고민해야 한다. 까다롭다고 이런 논의를 지연할 경우, 가속하는 인공지능 기술 발전과 현행법·제도의 괴리가 깊어져 새로운 혁신과 확산이 지체되리란 우려가 크다. 우리 세대의 지혜로운 선택으로 미래의 어린이들이 인공지능과 평화로운 관계를 누리길 바란다.
 
“인공지능 처벌하되 인간보다는 가볍게”
필자는 지난해 전치형 KAIST 교수, 박경신 고려대 교수 연구진과 함께 인공지능(AI)을 법적으로 처벌하는 데 대한 인식 조사를 했다. 미국의 성인 인터넷 이용자 3315명이 대상이었다. 예를 들어 인간 의사와 인공지능 의사가 똑같은 의료사고를 저질러 환자가 사망했다는 식의 시나리오를 제시한 뒤, 인간이나 인공지능이 과연 잘못임을 알고서도 그런 행동을 했을 것인지, 책임이나 처벌은 어느 정도일지를 물었다.
 
응답은 ‘인간이 잘못임을 더 잘 알고 있었을 것이며, 책임이 크고, 따라서 인공지능보다 인간을 더 강하게 처벌해야 한다’는 것이었다. 인공지능이 법인격을 부여받는다면, 이를 악용해 책임을 회피하는 일이 충분히 일어날 수 있다는 것 같다는 등의 생각이 그 근거다. 사람보다 약한 처벌을 받을 인공지능에 행위의 책임을 떠넘길 수 있다는 의미다. 반대로 인공지능에 대해서는 ‘잘못인 줄 잘 모르고서 과오를 저지를 것 같다’면서도 여전히 처벌해야 한다는 응답이 주를 이뤘다. 정신질환자나 실수로 인한 사고에 대한 현재의 법적 해석과는 사뭇 다르다.
 
조사에서는 또 ‘인공지능을 처벌할 수 있다면 이를 통해 죗값을 치르게 하고(응징), 뉘우쳐 행동을 바로잡게 하며(개선), 처벌이 두려워 잘못을 저지르지 않도록 하는 것(억제)이 가능할지’를 물었다. 응답은 ‘인공지능은 프로그래밍으로 개선할 수 있다. 그러나 처벌하더라도 충분히 응징하기는 어렵다. 앞으로 처벌이 두려워 행동을 억제하는 효과도 없다’는 것이었다.
 
두 설문 결과를 종합하면, 대중은 인공지능도 처벌하기를 원하지만, 법 규정상으로는 처벌이 어렵거나 불충분한 상태로 남는 처벌 간극이 존재한다는 의미를 도출할 수 있다. 법·윤리·전산·심리학 등 다양한 분야에서 이 간극을 줄이는 새로운 방법을 고안하는 것이 인공지능 혁신을 앞당기는 길이다.
◆차미영 그룹장
기초과학연구원 데이터 사이언스 그룹장이며 KAIST 전산학부 교수다. 미국 페이스북 본사 데이터 사이언스 팀에서 초빙교수로 일했다. 지난해 한국정보과학회가 수여하는 ‘젊은 정보과학자상’을 받았다.

 
차미영 기초과학연구원 그룹장
공유하기
광고 닫기