본문 바로가기

심부름 로봇, 오해로 행인 폭행하면 누구 책임인가

중앙선데이 2016.12.18 00:30 510호 27면 지면보기

질병이나 사고로 육체적 손상이 큰 경우, 실험실에서 건강한 육체를 복제한 후, 뇌에 저장된 정보를 옮기는 마인드업로딩 기술이 현실화되면 자아에 대한 해석이 불분명해진다.

미국 FDA에서 승인된 로봇의수 시스템인 데카암은 근육신경과 기계팔을 연결하여 정교한 재활동작이 가능하도록 한다. 로봇의수의 파손은 기물손괴인가 과실치상인가?



동창회에 다녀온 김길동씨는 황당한 상황을 목격했다. 바이올린 연주자로 잘나가던 동창이 몇 해 전 교통사고로 오른팔을 잃었다. 더 이상 연주를 할 수 없어서 절망 속에 있었다. 그러던 중 첨단 로봇의수(義手)가 개발됐다는 소식을 듣고 당장 시술을 받았다. 뇌와 오른팔 사이의 신경 신호를, 오른팔 대신 인공지능이 중개하여 기계팔을 움직이는 원리라고 한다.


[이도헌의 크로스 휴먼 -끝-] 인공지능과 사회규범

처음에는 생각대로 로봇의수를 움직이기 어려웠단다. 사람의 뇌와 인공지능이 서로 신경신호 패턴을 익히는 소위 피드백 학습이 필요하기 때문이다. 하지만 몇 개월 꾸준히 훈련했더니 바이올린 연주까지 가능하게 됐다며 좋아했다.



옆자리에 있던 다른 동창친구가 신기하다며 로봇의수를 잡아당겼는데 아뿔싸 접속부가 파손되면서 망가져버린 것이다. 워낙 정교하게 학습된 장치라서 새로 시술해서 익숙해지려면 다시 수 개월의 학습시간이 필요하다. 너무 황당한 상황이라 바이올린 연주자 친구가 펄펄 뛰면서 화를 냈다.



사고를 낸 친구는 뭘 그렇게 화를 내냐며, 로봇의수 값을 물어주면 되지 않겠냐고 했다. 바이올린 연주자 친구는 말도 안 된다며 더 화를 냈다. 오랜 학습 과정을 통해 로봇의수는 이미 신체 일부가 되었으니 의료사고에 준하는 책임을 지라고 주장했다.



집에 돌아온 김길동씨도 판단이 서지 않아서 로봇 코다에게 물어봤다. 이 상황은 법률상 기물손괴에 해당할까 과실치상에 해당할까? 로봇 코다는 이미 비슷한 사례가 우리나라에서 생긴 적이 있다고 설명해준다. 2010년 아파트 경비원의 의족이 파손되는 사고가 생겼다. 피해자는 업무상 부상이라고 주장했고, 근로복지공단은 의족은 신체가 아니므로 부상이 아니라고 주장했다. 1심과 2심은 근로복지공단의 손을 들어줬다. 하지만, 2014년 대법원은 피해자의 입장을 받아들였다. 부상의 대상을 꼭 생리적 신체에 한정할 필요는 없다는 것이다.



 

[로봇·주인·제조사 책임 공방 선상에]

미국 스탠퍼드 대학의 제리 카플란 법률정보학 교수는 인공지능 때문에 미래에 발생할 수 있는 흥미로운 에피소드를 제시했다. 심부름 로봇에게 아이스커피를 사오라고 시켰다. 심부름 로봇이 아이스커피 가게로 가는 길에 소매치기 장면을 목격했다. 범인이 남의 가방을 낚아채서 도망가려는 것을 행인이 붙잡아서 경찰이 올 때까지 제압하고 있었다. 주변 사람과 경찰이 그 행인을 칭찬했다.



심부름 로봇은 학습기능이 있기 때문에 그 장면을 통해 새로운 행동준칙을 배웠다. 아이스커피를 사서 돌아오는 길에 남녀가 옥신각신하는 장면을 보았다. 남자가 여자의 가방을 낚아채서 돌아서는 순간, 심부름 로봇은 앞서 배운 행동준칙에 따라 남자를 소매치기로 간주하고 제압했다. 그런데 그 남녀는 사실 부부사이였던 것이다. 누가 운전할지를 놓고 옥신각신하다가 차열쇠가 든 가방을 남자가 낚아채서 자동차로 가려던 상황이었다.



오해로 기분이 상한 남편은 로봇 주인을 폭행으로 고소한다. 이때 과연 누가 법적 책임을 져야 하는가? 심부름 로봇, 로봇 주인, 로봇 회사가 모두 책임공방 선상에 놓인다. 제리 카플란 교수는 이처럼 인공지능의 출현은 단순한 기술적 진보를 넘어서, 사회적 규범에 대한 인식제고를 요구한다고 주장한다.



올해 KAIST와 서울대는 앞으로 다가올 변화를 미래의 주인 세대가 어떻게 생각하고 있는지 알아보는 프로젝트를 공동수행했다. 인공지능을 포함한 새로운 기술이 야기할 수 있는 미래의 사회적 이슈를 가상으로 제시하고, 각자 생각을 공유하는 사이버 토론대회를 개최했다. KAIST와 서울대 학생들이 토론에 참여하고, 교수들은 토론방 멘토 역할을 했다.



 

[로봇 때문에 생기는 해고자 대책은]

 

미국 노스포인트사에서 개발한 컴파스 프로그램은 빅데이타 인공지능 분석을 통해 범죄자의 재범위험성을 계량화해준다. 이 프로그램은 미국 위스콘신주 법원에서 실제로 활용하고 있다.



한 토론방에서는 회계전문 인공지능로봇 때문에 회계직원들이 해고되는 상황에 대한 토론이 이뤄졌다. 기업 경쟁력 제고를 위해 로봇으로 사람을 대체하는 현실은 피할 수 없을 것이라는 주장이 대세였다. 로봇 때문에 해고되는 회계직원에게 재교육이나 실업수당 같은 사회적 복지대책을 적극적으로 준비해야 한다는 의견이 많이 나왔다.



한 학생은 새로운 시각을 제시했다. 현재 기업들은 합법과 불법의 경계에서 기업의 이익을 극대화할 수 있는 회계 수법을 구사하고 있다고 전제했다. 그런데 인공지능 로봇이 이 일을 맡으면 더욱 기상천외한 변칙 수법이 나올 것이라고 염려했다. 바둑 인공지능 알파고가 프로기사들의 전통적인 수순을 넘어서는 화점을 찾아낸 것을 떠올려 보면, 인간 회계사들이 미처 생각해 낼 수 없는 기막힌 변칙 수법이 나올 수도 있겠다는 우려에 공감이 간다.



빅데이타 분석으로 범죄자의 재범위험성을 평가해서 양형기준을 정하는 것이 타당한가를 주제로 토론한 방도 있다. 지난 7월 미국 위스콘신주 법원은 범죄자의 형량을 정할 때, 컴파스라는 재범위험성 평가시스템이 산출한 점수를 반영하도록 승인했다. 노스포인트라는 민간기업이 개발한 컴파스 소프트웨어는 유사한 다른 범죄자들의 재범기록을 분석하여, 특정 범죄자의 재범위험성을 계산하는 일종의 인공지능 시스템이다. 피고 측 변호사는 컴파스가 어떻게 점수를 산출하는지 알 수 없고, 산출방식에 대해 심문할 수도 없기 때문에, 그런 점수를 양형에 반영하는 것은 부당하다고 항변했다. 하지만 위스콘신주 대법원은 인공지능 손을 들어준 셈이다.



재범위험성을 양형에 반영할 것인가 자체가 오랜 논쟁거리이긴 하다. 형법상 처벌은 응보성과 예방성을 목적으로 한다. 응보성은 죄에 대한 댓가를 치르게 하는 것이고, 예방성은 범죄자 본인과 사회 구성원이 범죄를 저지르지 않도록 예방하는 것이다. 하지만 예방성이 실효성이 있느냐에 대한 상반된 주장이 대립해 왔다. 영국과 미국 일부 주의 경우는 예방성을 중요하게 고려하고 있다. 우리나라 법조계에서는 주로 성관련 범죄의 처벌과 사형제도 존속에 대한 논의에서 주로 등장한다. 설사 예방성을 적극적으로 반영하는 사회적 합의가 있다고 해도, 판사가 아닌 인공지능이 산출한 재범위험성 점수를 활용할 것인지는 다른 차원의 문제다.



 

[마인드업로딩 상황에서의 책임 소재 논란]

질병이나 사고로 육체적 손상이 큰 경우, 실험실에서 건강한 육체를 복제한 후 뇌에 저장된 정보를 옮기면 좋겠다는 공상과학 같은 이야기도 미래에 등장할 기술로서 전문가들은 마인드업로딩이라고 부른다. 비록 아직 현실감은 작지만 미래의 마인드업로딩 상황에서 발생한 범죄는 누가 처벌대상이 되는가도 흥미로운 토론주제 중 하나였다. 가령 A의 뇌 정보를 B의 육체에 옮긴 상태에서 B의 육체가 범죄를 저지르면, A와 B중 누구를 처벌해야 하는가가 쟁점이다. 범죄의 성립요건 중 책임성이라는 것이 있다. 즉, 범죄 행위자에게 책임을 물을 수 있어야 한다는 것이다. 미성년자나 심신상실자의 범죄를 면책하는 이유가 바로 책임성 때문이다. 마인드업로딩 상황에서는 책임성의 해석을 어떻게 해야 하는가?



로봇 코다는 김길동씨에게 앞으로 인공지능이 현실 속에 자꾸 들어올수록 예기치 못한 상황이 많이 생기게 될 것이라고 얘기한다. 지난 1·2·3차 산업혁명을 이끌었던 증기기관·전기·컴퓨터의 발명은 인간이 쓰는 도구가 혁신된 것인데 반해, 4차 산업혁명을 이끄는 인공지능은 인간과 공존하는 도구 혹은 더 나아가 오히려 인간을 도구로 사용하는 존재의 출현을 예고하고 있다. 인간만이 통제권을 갖던 지난 수천년간 사회적으로 합의된 문화·규범·법률 등이 근본적인 차원에서 새롭게 조명되어야 하는 상황이 차츰 다가오고 있는 것이다.



 



 



이도헌KAIST 바이오및뇌공학과 교수

구독신청

공유하기
광고 닫기