본문 바로가기

[정재승의 열두발자국] 인공지능 시대, 우리를 불안케 하는 것들

중앙일보 2019.11.26 00:27 종합 32면 지면보기
정재승 KAIST 바이오및뇌공학과 교수

정재승 KAIST 바이오및뇌공학과 교수

2017년 미 대선이 한창일 무렵, 미국 경제지 포브스는 충격적인 폭로기사를 세상에 내놓았다. 페이스북이 개인의 성향에 대한 정보를 영국의 데이터마이닝 회사 캠브리지 애널리티카에 유출했다는 것이다. 이 회사는 트럼프 대선캠프에 이 정보를 보냈고, 심지어 페이스북 사용자들의 개인 정치성향 등을 분석해서 그들에게 부합하는 정치적인 메시지를 담은 광고를 노출했다는 것이다. 이 회사의 CEO 알렉산더 닉스는 정치적으로 매우 중립적인 광고였다고 주장했지만, 당시 포브스지는 이런 광고가 선거에 상당히 영향을 미쳤을 것으로 추정했다.
 

사생활 침해, 진짜같은 가짜
AI시대 가장 큰 위협 급부상
엄벌에 대한 시민적 합의 필요

컴퓨터의 속도가 빨라지고 무엇보다 빅데이터가 늘어나면서 인공지능 방법론 중 머신러닝 기법이 위용을 떨치고 있다. 사진 속 얼굴만으로 소름 끼칠 정도로 정확하게 누구인지 식별하는가 하면, 의료데이터를 통해 숙련된 의사보다 높은 정확도로 질병을 진단하고 치료법을 제안한다. 인공지능 스피커는 빅데이터로 학습해 이제 웬만한 사투리도 다 알아들을 정도로 똑똑해졌고, 대화가 가능할 정도로 사회성을 갖추었다.
 
하지만 빅데이터 인공지능에는 어두운 그림자가 드리워져 있다. 데이터 보안과 사생활 침해 문제 말이다. 중국 최고의 드론 회사가 만든 드론들은 제품을 사용하는 과정에서 찍은 모든 사진들을 자사 서버로 전송해 보관한다는 사실이 알려져 충격을 주었다.
 
인공지능 스피커를 침실에 두면 침실에서 벌어지는 모든 소리를 엿듣는다. 이름을 부르면 그때부터 듣는 거 아니냐고? 사실은 스피커의 이름을 부르는걸 알아채기 위해서는 계속 듣고 있어야 한다. 얼마 전 미국의 시사잡지 뉴스위크는 ‘아마존의 인공지능 스피커 알렉사는 당신이 섹스를 하는지를 알 수 있다’는 내용의 짤막한 기사를 내놓기도 했다. 아마존 관계자는 ‘알렉사라고 이름이 불려진 이후부터 인공지능이 해석에 들어간다’고 궁색한 답변을 내놓았지만, 데이터를 수집하고 있는 것만은 사실이라서 이를 기업이 어떻게 활용할지는 알 수 없는 일이다.
 
이처럼 빅데이터 시대에 우리는 데이터를 한데 모아 생기는 사생활 침해나 데이터 보안 이슈들도 점점 더 골치를 썩이게 될 것이다. 그 이전까지 고민하지 않았던 데이터 보안 문제가 인공지능까지 결합해 교묘한 사생활 침해로 이어질 수 있다는 얘기다.
 
여기에 최근 ‘생성적 적대 신경망’(GAN, Generative Adversarial Network)까지 등장해 무시무시한 가짜뉴스 시대를 예고하고 있다. 기존의 신경망이 빅데이터를 통한 학습으로 가짜를 잘 구별하는 인공지능이라면, GAN은 가짜를 잘 구별하는 녀석을 너끈히 속여 진짜처럼 만드는 일까지 같이한다. 마치 신경망 안에 지폐위조범과 경찰을 한데 넣어두어, 지폐위조범은 더욱 교묘하게 속이려고 하고, 경찰은 이렇게 위조된 지폐를 정확하게 감별하는 역할을 수행한다. 그 과정에서 양쪽 모두 점진적으로 발전해, 결국 진짜 같은 가짜가 만들어지고, 위조하고 감별하는 서로의 능력들이 크게 향상되는 모델이다.
 
얼마 전 워싱턴대 연구진들은 오바마의 TV 연설 영상 하나를 세상에 내놓았다. 이 영상은 실제로 오바마가 하지 않은 연설이었는데, 누구나 이 연설을 보고 속지 않을 수 없었다. 오바마 얼굴은 물론이고, 억양·말투·표정·제스처까지 정교하게 학습해 누가 보더라도 ‘오바마’라고 속을 정도의 수준을 보여주었다.
 
GAN은 기존의 사람 얼굴들의 정교한 조합으로 실제로 존재하지 않는 사람을 너끈히 만들어낼 수도 있다. 매력적인 모델들의 절묘한 조합으로 근사한 광고모델을 새로 탄생시킬 수도 있고, 수많은 엑스트라도 실제로 동원하지 않고 그럴듯한 얼굴들을 생성해 낼 수 있다.
 
그렇다면 과연 우리는 가짜 뉴스와 진짜 뉴스를 제대로 구별할 수 있을까? 팩트 체크가 가능하지 않은 상황까지 도래하는 건 아닐까? 설령 가짜뉴스의 양이 적더라도 제대로 팩트 체크가 어렵고 완벽한 가짜뉴스가 가능하다는 사실만으로 저널리즘은 큰 곤경에 빠질 것이다. 뉴 미디어 시대에 인공지능은 저널리즘의 본질을 위협하는 존재가 될지도 모른다.
 
비식별 데이터를 분석해 인간들을 위한 서비스를 제공하는 인공지능의 유용함은 더욱 강화되어야 한다. 하지만 그것이 사생활 침해나 보안 취약, 가짜뉴스 양산으로 이어지는 것은 막아야 한다. 그렇지 않으면, 언론시장은 매우 혼탁해질 것이다. 이를 위해서는 시민적 합의를 통해 ‘인공지능시대를 위한 윤리’를 빨리 확립해야 한다. 혁신은 독려하되 해악은 미리 막아내는 인간 지성의 정수를 보여줄 순간이 되었다.
 
정재승 KAIST 바이오및뇌공학과 교수
공유하기
광고 닫기