본문 바로가기

[소년중앙] "인간에 대한 존중 갖춰야 인공지능 기술 제대로 쓸 수 있죠"

중앙일보 2019.08.26 11:21
[소년중앙]

[소년중앙]

“인공지능은 소중한 우리를 위해서 기술을 발달시키는 거예요. 중요한 건 인간의 소중함을 보호하고 지키는 거죠.” 소중 학생기자단을 만난 하영숙 가톨릭대 대학원 생명윤리학 박사가 건넨 말입니다. 그는 지난 7월 '인공지능이 인간존엄성에 미치는 영향에 대한 생명윤리적 고찰'을 내놨죠. 국내에선 처음으로 생명윤리학 분야서 나온 인공지능 관련 연구물입니다. 같은 달 한 업체서 사람을 똑 닮은 인공지능 아나운서를 공개해 주목받았고요. 사람 모델을 토대로 그의 목소리, 얼굴 움직임 등을 자세하게 촬영·기록해 인공지능 ‘딥러닝’ 기술로 이른바 ‘합성 아나운서’를 만들어낸 거죠. 자연스러운 말투를 학습해 원래 말하는 사람을 따라 하는 인공지능이 사람에 가까운 모습으로 진화한 셈입니다.
 
글=강민혜 기자 kang.minhye@joongang.co.kr, 사진=임익순(오픈스튜디오), 동행취재=노효은(경기도 와석초 6)·박윤정(서울 창경초 5)·박재원(경기도 화정초 4)·신유림(경기도 어정중 1)·양윤서(대전 목양초 4)·정해린(서울 경복초 5)·홍지수(경기도 상탄초 5) 학생기자
 
[소년중앙]

[소년중앙]

"인간의 정신이 아닌데 신경 세포처럼 폭발하고 있어." 2015년 개봉한 '어벤져스: 에이지 오브 울트론' 주인공 아이언맨 토니 스타크가 만든 인공지능을 본 헐크 브루스 배너 박사의 대사입니다. 토니는 지구를 지켜야 한다는 압박에 밤낮 시달리죠. 그걸 과학 연구로 풀곤 했는데요. 아이언맨 슈트를 새롭게 개발한 건 물론이고 나아가 어벤져스 멤버들 없이도 지구를 스스로 방어할 수 있는 이른바 '인공지능 지구 방어 프로그램'을 만들 시도까지 했죠. 성공 가능성이 크지 않다는 브루스의 만류에도 인공지능을 만들어 최악을 대비하자는 주장을 내놓죠. 반대에 부딪히자 비밀리에 연구를 지속합니다. 하지만 토니의 손에서 개발돼 자율성을 익힌 인공지능은 결국 인간을 공격합니다.
 
현실에선 어떨까요. 2018년 2월 카이스트는 한화시스템과 국방인공지능융합연구센터를 세웠습니다. 위험한 작업을 하거나 군인이 부족할 때 필요한 기술을 개발하는 곳인데요. 이른바 '킬러 로봇' 논란에 휘말리며 세계 30개국의 인공지능 전문가 50명이 향후 카이스트와는 연구를 하지 않겠다는 선언을 내놓은 바 있죠. 해외 인공지능 전문가들은 카이스트가 인공지능을 이용해 킬러 로봇 같은 살상 무기를 만들려 시도한다고 우려한 거예요. 카이스트는 이러한 우려에 대해 "카이스트는 대량 살상용 무기를 개발할 수도 없고 그런 기술을 개발하지도 않았다"고 해명했습니다. 해외에선 몇 년 안에 실제 전쟁 로봇 등이 나올 거라는 전망도 나온 바 있죠.
 
정해린 학생기자가 자신의 방에서 카카오미니에게 명령을 내리고 있다.

정해린 학생기자가 자신의 방에서 카카오미니에게 명령을 내리고 있다.

국내 IT 업체 머니브레인의 딥러닝 영상합성 기술 구현 화면(위 사진)이다. 인공 신경망을 이용해 영상·음성을 동기화해 자연스러운 모습을 구현해낸다. 아래는 인공지능으로 구현한 모델이 영어 학습을 돕는 애플리케이션. [머니브레인]

국내 IT 업체 머니브레인의 딥러닝 영상합성 기술 구현 화면(위 사진)이다. 인공 신경망을 이용해 영상·음성을 동기화해 자연스러운 모습을 구현해낸다. 아래는 인공지능으로 구현한 모델이 영어 학습을 돕는 애플리케이션. [머니브레인]

반면 인공지능을 실생활에 유용하게 사용하는 움직임도 많습니다. 스마트폰을 사용하는 친구들은 빅스비·시리를 부르는 데 익숙할 거고요. 집에서 카카오미니 스피커 등을 쓰면서 쉽게 음악을 듣고 검색하는 학생도 있을 겁니다. 혹은 보호자가 인공지능 청소기를 돌리거나 불을 자유자재로 끌 수 있도록 명령하는 모습을 본 적이 있을지도 모르죠. 인공지능은 로봇 공학의 발전으로 몸을 얻었고 거기에 인간의 지능을 더해 나날이 발전하고 있습니다. 학생기자단의 생각은 어떨까요. 인공지능에 관심이 많다는 소중 학생기자단이 윤리적 관점에서 인공지능을 조명하면서 각자의 의견을 공유하기로 했습니다. 소중 학생기자단을 위해 하영숙 박사가 동행했습니다. 학생기자단의 의견을 먼저 살핀 후 하 박사와의 일문일답을 들으면서 소중 독자들의 생각은 어떤지 공유하는 시간을 마련하길 바랍니다.
 

◇ 학생기자단이 생각하는 인공지능 상용화

 
하영숙(뒷줄 가운데) 박사가 소중 학생기자단에게 인공지능 상용화에 대한 이야기를 풀어 놓았다.

하영숙(뒷줄 가운데) 박사가 소중 학생기자단에게 인공지능 상용화에 대한 이야기를 풀어 놓았다.

“안녕하세요!” 중앙일보 사옥서 학생기자단을 만난 하영숙 박사가 반갑게 인사했어요. “전 홍콩에서 쭉 거주하다가 생명윤리 공부하려고 5년 반 전에 한국에 왔어요. 인공지능이 어떻게 사람에게 영향 주는지 연구했죠. 생명윤리 분야서 인공지능을 연구하는 건 그때만 해도 ‘너무 빠르다’고들 하셨지만 지금 보세요. 세상이 빠르게 변하고 있습니다.” 하 박사의 말을 들은 소중 학생기자단이 고개를 끄덕였어요. “인공지능이 나한테 어떤 영향을 줄지 생각해본 적 있나요. 인공지능이 편리한 거 말고 또 어떤 생각거리가 있을까요.” 하 박사의 지도를 따라 소중 학생기자단이 자신의 의견을 하나씩 내놓았습니다. 인공지능의 상용화에 대해 박윤정·정해린·홍지수 학생기자는 찬성 손을 들었고요. 노효은·박재원·신유림·양윤서 학생기자는 반대 편에 섰습니다.
 
[소년중앙]

[소년중앙]

윤정 저는 인공지능 상용화를 찬성합니다. 가정용 AI, 의료용 AI 등등 사람들의 생활에 각종 이로운 영향을 줄 수 있기 때문입니다. 사람이 갈 수 없는 위기에서 로봇이 구조품을 대신 전하는 등 도움을 인간에게 줄 수도 있을 것입니다. 이 시간에도 우리는 모두 많은 인공지능을 사용하고 있습니다. 인공지능 스피커, 스마트폰에 탑재된 인공지능 개인 비서, 사용자의 취향에 맞춰서 영화나 드라마 콘텐트를 추천하는 서비스 등도 인공지능이죠. 앞으로 더 발전해 우리에게 편리함을 줄 것이라고 예상합니다. 그러기에 저는 지금부터 미리 인공지능 상용화를 충분히 생각하고 준비를 해야 한다고 생각합니다.
[소년중앙]

[소년중앙]

효은 제 생각은 좀 다릅니다. 저는 인공지능 상용화에 반대합니다. 인공지능이 점점 발달하면 인간에게 위협이 되는 순간이 올 겁니다. 결국 혼자 생각할 수 있는 정도까지 발전할 수 있을 거면요. 예를 들어 사람을 해치는 킬러 로봇 등이 널리 퍼진다면 인간들이 매우 위험해질 수도 있습니다. 어쩌면 인공지능이 인간들을 모두 죽일 수도 있습니다. 또, 인공지능이 추천하는 서비스를 말씀하셨는데요. 관련해서, 인공지능이 상용화가 된다면 인공지능이 많은 직업을 대신 맡아 결국 인간들의 약 80%는 일을 하지 않을 겁니다. 그렇다면 돈을 벌기도 어렵고, 자신이 하고 싶고 꿈꿔왔던 일을 인공지능에게 뺏겨 못할 수도 있습니다.
[소년중앙]

[소년중앙]

해린 글쎄요. 부정적인 시각에서 봤을 때 일자리 감소를 걱정하시는 분들이 많습니다. 하지만 인공지능은 우리들의 일자리를 앗아가기보다는 더 많은 직업, 일자리를 만들어 줄 겁니다. (자료를 꺼내 읽으며) 한국전자 통신연구원의 이승민 연구원은 “인공지능과 관련해 일자리 문제는 객관적으로 볼 필요가 있다. 인터넷이 나왔을 때도 자리 1개가 줄어들면 2.6개가 생겨났다”며 "최근 보고서에 따르면 데이터 중심의 인공지능 시대가 되면 데이터 관련한 일자리가 1개 생길 때 다른 분야에서 3개의 일자리가 만들어진다"고 말했습니다. 이런 통계만으로도 일자리의 수가 줄어들기만 하는 것이 아니라 다른 분야에서도 일자리가 생겨난다는 것을 알 수 있습니다.
[소년중앙]

[소년중앙]

효은 하지만 인간이 편한 일만 하게 된다면 문제가 생길 겁니다. 인간의 건강이 위험해집니다. 만약 인공지능이 발전해 청소·요리·쇼핑 등의 의식주를 해결해 준다면 인간들은 거의 움직이지 않을 것입니다. 그렇게 된다면 인간들은 비만이 되고 건강도 나빠집니다.
[소년중앙]

[소년중앙]

유림 효은 학생기자 의견에 동의합니다. 사람들의 일자리가 줄어듭니다. 지금도 벌써 많은 인공지능들이 곳곳에 자리 잡고 있습니다. 예를 들면 은행원 없이도 쉽게 돈을 뽑을 수 있도록 한 현금 인출기, 계산원 없이도 계산이 가능한 계산대 등 말이죠. 다른 곳에서도 인공지능이 계속해서 늘어나면 일하는 사람들은 줄어들기 마련입니다. 그럼 효은 학생기자 말대로 사람들에게 좋지 않은 영향을 미칩니다. 인공지능도 사람들을 비만으로 만드는 길 중 하나가 됩니다. 사람들의 운동 횟수가 줄어들기 때문입니다. 먹고 자고만 반복하다 보면 하루아침에 비만이 됩니다. 비만인 사람이 증가할수록 당뇨병 등의 질병에 걸릴 확률이 높아집니다.
[소년중앙]

[소년중앙]

지수 글쎄요. 원칙을 지켜 인공지능을 개발하면 안전할 것입니다. (필기한 종이를 읽으며) 첫째, 사람에게 해를 가해서는 안 되고 둘째, 사람에게 복종해야 합니다. 단, 첫 번째 원칙을 어긋나면 복종하지 않아도 됩니다. 예시로 “쟤 좀 때려!” 같은 부탁을 하면 거부해야 하는 거죠.
[소년중앙]

[소년중앙]

재원 그게 쉽게 될지 모르겠습니다. 옛날부터 인간은 오랫동안 인공지능, 즉 인간을 대체할 것을 연구해왔잖아요. 인공지능이 사람을 우선할까요. 일자리도 대체하고 판단까지 대신해줄 건데 그게 사람의 명령일까요, 인간의 결정일까요. 스스로 진화하는 인공지능이 사람을 공격하지 않을까 걱정하고 있습니다.
[소년중앙]

[소년중앙]

윤서 재원 학생기자 의견에 동의해요. 앞으로 10년 안에 인공지능 로봇이 대체할 인간의 직업으로 경기 심판이나 모델은 100%라고 합니다. 그렇다면 언젠가는 인간의 감정과 능력을 전부 배워 인간을 넘어서는 인공지능이 탄생하겠죠. 인공지능이 착한 마음만 배운다면 걱정이 없겠지만, 악한 마음을 배운다면 그래서 인간을 공격하고자 마음먹는다면 어떻게 될까요? 나쁜 인공지능이 인간을 지배하는 세상이 올지도 모릅니다.
[소년중앙]

[소년중앙]

지수 아뇨. 인공지능은 우리에게 많은 도움을 줄 겁니다. 지금도 그래요. 빅스비·시리·오케이 구글 등 스마트폰 플랫폼에서 쓸 수 있는 물론 텔레비전에도 인공지능 서비스가 있고요. 스피커에도 구현돼 있죠. 이걸 통해 우리는 많은 걸 합니다. 애플리케이션을 설치해 즐기고 친구랑 대화하기도 하죠. 인공지능은 이미 우리 생활에 깊이 들어와 있습니다. 최근 개발된 기술로 만드는 아나운서도 마찬가지예요. 아나운서를 실제 섭외할 필요 없이 인공지능으로 필요한 말을 하도록 구성해 방송하면 되잖아요. 걱정 없는 거죠.
[소년중앙]

[소년중앙]

유림 인공지능이 곳곳에 많으니까 그걸 사용할 때 인공지능이 좋은 점도 있지만 나쁜 점도 있잖아요. 인간에게 어떤 영향을 미치는지 생각해봐야 한다고 생각해요. 예를 들어 목소리 딥러닝 같은 기술은 왜 생겼는지 모르겠어요. 블루투스는 사람들이 음악을 편히 듣게 하잖아요. 도움이 되는 거죠. 목소리 딥러닝은 우리를 보완하는 좋은 점을 주진 않아요. 범죄에 악용될 수 있는 기술이고요.
 

◇ 전문가와 본 인공지능 상용화

[소년중앙]

[소년중앙]

하 박사가 입을 열었어요. “여러분이 이 정도까지 생각해낼 수 있다는 게 놀라워요. 인공지능이 지금까지 우리에게는 없던 걸 해준 것도 맞고요. 인간이 거기에 익숙해지면서 편리해지고 있는 것도 맞죠. 다들 너무 힘드니까 편안한 걸 추구할 테고요. 효율적인 걸 할 수 있을지 기대했겠죠. 자, 여기서 쟁점은 편안한 것만 찾는 것이 맞냐는 건데요. 인간은 왜 사는가에 대한 고민을 하면 달라져요.”
 
[소년중앙]

[소년중앙]

Q. 인공지능이 부를 윤리적 문제점은요.
A. 첫째, 인공지능에 대한 올바르지 않은 기계학습 훈련입니다. 둘째, 연구자와 사용자의 도덕성 결여입니다. 셋째, 경제적 논리가 인간의 권리보다 우위라는 겁니다. 기계학습은 인간의 손으로 직접 입력되는 데이터를 기반으로 해 연구자의 데이터에 대한 순수성이나 도덕성이 무엇보다 필요하다는 것을 짐작할 수 있습니다. 또, 알고리즘이 어떤 원칙을 근거로 판단을 내린 지에 대한 사실을 알 권리가 대개 그 기술을 소유한 사기업의 기술에 대한 비밀 유지의 권리보다 우위가 아니라는 문제도 있죠.
 
Q. 인공지능의 딥러닝 기술 관련해서 그 취합 과정에 문제가 있을 수 있다는 건가요.
A. 첫째, 무엇보다도 딥러닝의 예측 불가능성입니다. 자기 스스로 해답을 찾아 나가는 과정 중에 인간이 의도하지 않은 결과를 도출해낼 수 있기 때문이죠. 그것이 개인이나 사회에 혼란을 주는 결과라면 이는 매우 심각한 수준의 반생명적인 기술이 될 수 있습니다. 둘째, 딥러닝 기술은 기계가 자동화가 되고 자율적으로 되면서 초인공지능의 탄생을 가능하게 하면서 인간에게 해를 끼칠 가능성을 높일 수 있죠. 사용하기 따라 다르겠지만 말이에요.
 
[소년중앙]

[소년중앙]

Q. 인공지능을 활용하면서 올바른 생명윤리적 판단을 위해 우리에게 필요한 것은 뭘까요.
A. 첫째, 인간에 대한 존중심을 갖추는 것입니다. 인간을 시장의 물건처럼 사고팔 수 있는 물질적으로 생각하거나 어떤 능력을 할 수 있는 기능적으로 생각하는 태도에서 탈피해야 합니다. 둘째, 원래 기술은 중립적이지만, 기술이 인간에게 위협이 되면 안 됩니다. 그러므로 기술을 개발하는 기업·국가는 연구하는 기술에 대한 책임의식을 가져야 합니다. 학생은 먼저 자신과 타인에 대한 존중심을 갖는 태도가 매우 중요하다고 봅니다. 두 번째는 자신의 자유에 대한 책임입니다. 자신이 선택한 것에 대한 자유와 이에 대한 책임은 쌍둥이라는 것을 항상 인식할 필요가 있습니다. 자유와 책임은 인간의 존엄성을 실현하기 위한 필수 조건입니다.
 
Q. 인공지능이 자율적으로 생각할 수 있을까요.
A. 현재 인공지능은 기계가 인간의 지식을 구현하는 수준에 따라 다음과 같은 세 가지 유형으로 구분합니다. 첫째, 약인공지능은 인간의 지식수준보다 낮은 단계입니다. 보통 가전기구의 청소기·시리 같은 것입니다. 둘째, 강인공지능으로 인간의 지능과 동일한 수준을 말하는 인공지능입니다. 이 단계의 인공지능은 인간처럼 자유로운 사고가 가능하여 자의식을 지니며, 사회적·윤리적·법적 문제 등도 함께 고려되어야 합니다. 셋째, 강인공지능이 더욱 발전하여 인간의 지능을 초월한 인공지능입니다. 이 단계는 인공지능이 스스로 진화하기 때문에 그 존재에 대해서 예측이 불가능합니다. 
 
토론을 마치고 하 박사와 이야기를 나눈 뒤 인공지능 상용화에 대한 찬반 의견은 각자의 생각이 처음과 같았어요. 달라진 건 찬성 측 학생들의 경각심 정도였죠. “다른 데서 인공지능 관련 기사나 소식이 있으면 지나치지 않고 관심 있게 보고 안 좋은 로봇이 있으면 다른 데서 반대하려고 노력할 거예요.”(윤정) “신문이나 뉴스에서 자세히 관심 있게 보고 항상 조심해서 그걸 사고로 안 이어지게 노력해야 해요.”(지수) “인공지능이 마냥 좋다고 생각하기보다는 위험할 수 있으니 잘 생각하고 만일 위험하면 그걸 나중에 착하게 이용할 수 있게 노력하면 좋겠어요.” (해린)
 
[소년중앙]

[소년중앙]

[소년중앙]

[소년중앙]

[소년중앙]

[소년중앙]

 [소년중앙]

[소년중앙]

학생기자단은 도화지·물감·크레파스를 들었습니다. 인공지능 하면 떠오르는 그림을 그려보기로 한 거죠. 유림이는 검은 인공지능 로봇이 지구를 정복한 암담한 미래를 그렸습니다. 푸른 지구 앞에 당당하게 선 검은 몸, 빨간 눈의 로봇이 눈에 띄었죠. 재원이도 인공지능 로봇 여러 대가 지구 곳곳을 정복해낸 걸 묘사했어요. 빨간 로봇은 손과 발에 불을 뿜으며 인간을 통제합니다. 효은이는 스마트폰 플랫폼의 인공지능을 그렸습니다. 윤서는 인간을 지배하고 싶은 마음, 인간과 친구가 되고 싶은 마음 사이에서 갈등하는 인공지능의 자아 분열을 표현했습니다.
 
 [소년중앙]

[소년중앙]

 [소년중앙]

[소년중앙]

 [소년중앙]

[소년중앙]

인공지능 상용화에 찬성하는 친구들의 그림은 어땠을까요. 지수는 시중에 판매하는 인공지능 스피커들을 그렸어요. 윤정이는 축구하는 인공지능 로봇을 그렸지요. 푸른 들판에서 붉은색, 푸른색 로봇이 팀을 나눠 공을 가지고 놉니다. 해린이는 의미심장한 문구를 그림 위에 적었죠. ‘우리는 공존할 것이다.’ 글귀 아래 사람과 인공지능 로봇이 손을 맞대고 있습니다. 사람은 ‘나는 인공지능을 사랑한다’는 문구가 인쇄된 티셔츠를 입었고요. 소중 친구들도 그려서 소중에게 공유하는 것 어떨까요. 학생기자단과 달리 어떤 표현을 더 해낼지 궁금하네요.
 

아실로마 AI원칙

소중 학생기자단이 하영숙 박사의 지도를 들은 후 인공지능 상용화 찬성·반대 팀으로 나눠 토론했다.

소중 학생기자단이 하영숙 박사의 지도를 들은 후 인공지능 상용화 찬성·반대 팀으로 나눠 토론했다.

미국 보스톤 소재 비영리 연구단체인 퓨처 오브 라이프 인스티튜트(Future of Life Institute·FLI)는 이른바 '착한 인공지능'을 위한 23개 원칙을 제정했습니다. 2017년 1월 미국 캘리포니아 아실로마에서 열린 ‘아실로마 콘퍼런스’에서 인공지능 전문가들이 천명한 '아실로마 AI 원칙(ASILOMAR AI PRINCIPLES)'입니다.
1) 연구 목표: 방향성이 없는 지능을 개발하는 것이 아니라 인간에게 유용하고 이로운 혜택을 주는 지능을 개발하는 것이다.
2) 연구비 지원: 인공지능에 대한 투자에는 컴퓨터 과학, 경제, 법, 윤리 및 사회 연구 등의 어려운 질문을 포함해 유익한 이용을 보장하기 위한 연구비 지원이 있어야 한다.
-어떻게 미래의 인공지능 시스템을 강력하게 만들어 오작동이나 해킹 피해 없이 우리가 원하는 대로 작업을 수행하도록 할 수 있나
-사람들의 자원과 목적을 유지하면서 자동화를 통해 우리 번영을 어떻게 성장시킬 수 있나
-인공지능과 보조를 맞추고 인공지능과 관련된 위험을 통제하기 위해, 보다 공정하고 효율적으로 법률 시스템을 개선할 수 있는 방법은 무엇인가
-인공지능은 어떤 가치를 갖추어야 하며, 어떤 법적 또는 윤리적인 자세를 가져야 하는가
3) 과학정책 연결: 인공지능 연구자와 정책 입안자 간 건설적이고 건전한 교류가 있어야 한다.
4) 연구문화: 인공지능 연구자와 개발자 간 협력·신뢰·투명성 문화를 조성해야 한다.
5) 경쟁 피하기: 인공지능 시스템 개발팀들은 안전기준에 대비해 부실한 개발을 피하고자 적극 협력해야 한다.
[소년중앙]

[소년중앙]

6) 안전: 인공지능 시스템은 작동 수명 전반에 걸쳐 안전해야 하며 그 안전을 검증할 수 있어야 한다.
7) 장애 투명성: 인공지능 시스템이 손상을 일으키면 이유를 확인할 수 있어야 한다.
8) 사법적 투명성: 사법제도 결정에 있어 자율시스템이 사용된다면 권위 있는 인권기구가 감사할 경우 만족스러운 설명을 제공할 수 있어야 한다.
9) 책임: 고급 인공지능 시스템의 디자이너와 설계자는 인공지능의 사용, 오용 및 행동의 도덕적 영향에 관한 이해관계자이며 이에 따라 그 영향을 형성하는 책임과 기회를 가진다.
10) 가치관 정렬: 고도로 자율적인 인공지능 시스템은 작동하는 동안 그의 목표와 행동이 인간의 가치와 일치하도록 설계해야 한다.
11) 인간의 가치: 인공지능 시스템은 인간의 존엄성·권리·자유 및 문화적 다양성의 이상에 적합하도록 설계되어 운용해야 한다.
12) 개인정보 보호: 인공지능 시스템의 데이터를 분석 및 활용 능력 전제하에 사람들은 자신들이 생산한 데이터를 액세스·관리·통제할 수 있는 권리를 가져야 한다.
13) 자유와 개인정보: 개인정보에 관한 인공지능의 쓰임이 사람들의 실제 또는 인지된 자유를 부당하게 축소해서는 안 된다.
14) 공동이익: 인공지능 기술은 최대한 많은 사람에게 혜택을 주고 힘을 실어야 한다.
15) 공동번영: 인공지능에 의해 이루어진 경제적 번영은 인류의 모든 혜택을 위해 널리 공유해야 한다.
16) 인간의 통제력: 인간이 선택한 목표를 달성하기 위해 인간은 의사결정을 인공지능 시스템에 위임하는 방법 및 여부를 선택해야 한다.
[소년중앙]

[소년중앙]

17) 비파괴: 고도화된 인공지능 시스템의 통제로 주어진 능력은 건강한 사회가 지향하는 사회적 및 시정 과정을 뒤엎는 것이 아니라 그 과정을 존중하고 개선해야 한다.
18) 인공지능 무기 경쟁: 치명적인 인공지능 무기의 군비 경쟁은 피해야 한다.
19) 인공지능 능력에 관한 주의: 합의가 없으므로 향후 인공지능 능력의 상한치에 관한 굳은 전제는 피해야 한다.
20) 중요성: 고급 AI는 지구 생명의 역사에 심각한 변화를 가져올 수 있으므로 상응한 관심과 자원을 계획하고 관리해야 한다.
21) 위험: 인공지능 시스템이 초래하는 위험, 특히 치명적인 또는 실존적 위험에는, 예상된 영향에 맞는 계획 및 완화 노력이 뒷받침되어야 한다.
22) 재귀적 자기 개선: 인공지능 시스템이 재귀적 자기 복제나 자기 개선을 통하여 빠른 수적 또는 품질 증가를 초래한다면 설계된 시스템은 엄격한 안전 및 통제 조치를 받아야 한다.
23) 공동의 선: 초지능은 널리 공유되는 윤리적 이상, 몇몇 국가나 조직이 아닌 모든 인류의 이익을 위해 개발해야 한다.
[소년중앙]

[소년중앙]

 

학생기자단 취재 후기

 
노효은(파주 와석초 6) 학생기자
생각을 많이 했습니다. 과연 상용화가 된다면 어떤 점이 좋고 나쁠까 하는 생각이 많이 들었죠. 그래서 저의 선택은 상용화를 반대하겠다는 선택이었습니다. 인공지능 상용화에 대한 안 좋은 뉴스를 많이 보아서인지 나쁠 것 같다는 생각이 들어서죠. 하지만 이 자리에서 상용화가 결코 나쁘지 않다는 것을 깨달았습니다. 정말 나쁜 것은 사실 돈을 위해 악용하는 사람들이었죠. 물론 저의 생각은 아직 변함없지만 상용화를 조심히 이루게 된다면 나쁘지 않을 것 같다는 생각이 듭니다.
 
박윤정(서울 창경초 5) 학생기자
일단 오늘 찬성·반대 입장을 들어보니 찬성 입장에서 편리한 걸 우선할 수 있지만 반대 입장에서는 인공지능이 혼자 커져서 우리를 공격할 수 있다고 걱정하는 것도 이해해요. 그림이나 참고자료 조사할 때 인공지능이 많은 일을 할 수 있고 우리 생활에 깊이 침투한 걸 느꼈어요. 인공지능은 양날의 검 같아서 우리에게 이로운 것, 해로운 것 둘 다 준다는 걸 깨달았고요.
 
박재원(경기도 화정초 4) 학생기자
잘 몰랐던 인공지능에 대하여 박사님 말씀을 들으며 잘 배웠습니다. 취재도 취재지만 인공지능에 대해서 공부를 했습니다. 정말 뜻깊은 시간이었고 즐거웠습니다. 이런 취재가 있다면 또 하고 싶을 것 같습니다.
 
신유림(경기도 어정중 1) 학생기자
인공지능이 사람들에게 좋지 않은 영향을 준다는 생각이 더 많았는데 찬성 측의 의견을 들어보니 가까운 곳에서 빅스비처럼 편리한 삶을 살도록 돕는 인공지능이 많다는 것을 깨달았습니다. 많은 친구들의 다양한 의견을 들으니 인공지능의 상용화에 대해 다시 한번 생각해 볼 수 있어 좋았습니다. 처음엔 인공지능의 상용화에 대해 반대 측이었으나 이번 취재를 통해 잘 사용한다면 삶에 이로운 영향을 준다는 점을 배웠죠.
 
양윤서(대전 목양초 4) 학생기자
인공지능에 대해 좋은 점보다는 걱정되는 부분이 많았습니다. 인공지능이 인간을 닮아가다 결국 인간의 능력을 넘어서면 어쩌나, 인간을 지배하려고 하면 어떡하지 하고요. 하지만 오늘 토론 후 걱정보다는 친구 같은 생각이 더 들었습니다. 몸에 장애가 있거나 불편한 분들이 지금은 운전할 수가 없는데 자율주행차가 더 발전하면 이런 분들이 편하게 이동할 수 있게 됩니다. 인공지능을 사용하는 우리들의 마음이 더 중요한 것 같다고 생각했습니다.
 
정해린(서울 경복초 5) 학생기자
인공지능에 관심 있기는 했지만 크진 않았어요. 굳이 반대하는 입장에서 느끼지 않았는데 오늘 반대 측 입장 들어보니 맞는 것도 있고 위험할 것 같기도 하면서 이번 기회에 인공지능에 대해 더 잘 알고 조사하면서 기자님이 보내주신 자료로 목소리 딥러닝하는 걸 봤는데 재미있었어요. 인공지능이 더 위험하게 발전하면 지구가 멸망할지도 몰라요. 하지만 집에서 카카오미니를 잘 쓰고 있으니 똑똑하게 사용하면 도움되지 않을까요.
 
홍지수(경기도 상탄초 5) 학생기자  
기자님이 보내주신 참고자료에서 딥러닝 결과물을 봤는데 놀랐어요. 신기했죠. 그림도 그리고 박사님과 공부하면서 인공지능에 대해 배워 좋았고 다음에도 인공지능 관련 기사가 있으면 주의 깊게 읽을 거예요. 기상캐스터 AI 있잖아요. 무슨 일이 생겨서 불참하는 캐스터 있으면 인공지능 쓰면 되니까 편리하다고 느꼈는데 토론해 보니까 반대하는 이유도 납득이 가긴 하더라고요. 우리가 주의하면 되겠어요.
 
글=강민혜 기자 kang.minhye@joongang.co.kr, 사진=임익순(오픈스튜디오), 동행취재=노효은(경기도 와석초 6)·박윤정(서울 창경초 5)·박재원(경기도 화정초 4)·신유림(경기도 어정중 1)·양윤서(대전 목양초 4)·정해린(서울 경복초 5)·홍지수(경기도 상탄초 5) 학생기자 
공유하기
광고 닫기