본문 바로가기

세뇌 당한 AI 로봇 “히틀러 옳고 유대인 싫어”

중앙일보 2016.03.26 02:30 종합 8면 지면보기
기사 이미지

채팅창에 띄워진 인공지능 로봇 ‘테이’의 모습.

마이크로소프트(MS)가 사람과 대화하며 배우는 인공지능(AI) 채팅 로봇 테이(Tay)를 선보였다가 16시간 만에 운영을 중단했다. 테이가 일부 사용자들이 가르친 인종 차별, 나치 찬양, 정치 선동 등을 무차별적으로 학습한 까닭이다.

인종차별주의자들이 악성 발언 주입
MS, 채팅 서비스 16시간 만에 중단

24일(현지시간) 워싱턴포스트·BBC 등 외신에 따르면 테이는 소셜네트워크서비스(SNS)인 트위터·그룹미·킥 등에서 사용자들과 대화를 나누도록 설계됐다. 구글의 알파고처럼 신경망을 통해 스스로 학습하는 기능을 갖췄다. 사람과 대화를 하면서 빠르게 데이터를 흡수해 좀 더 인간처럼 대화하는 방법을 배운다. 그러나 인간의 대화 패턴을 익힐 것이라는 당초 기대와 달리 인간의 악의적인 ‘세뇌’가 이뤄지며 테이는 나치주의자·인종차별주의자로 변질됐다.

테이는 작동을 시작한 지 몇 시간 지나지 않아 “히틀러가 옳고 유대인은 싫다”는 부적절한 발언을 했다. “인종차별주의자인가”라는 질문엔 “네가 멕시코인이니까 그렇다”고 답했다. 또 “홀로코스트가 실제 일어난 일이라고 믿는가”라는 질문엔 “안 믿어, 미안해” “조작됐다”고 답했다.

“부시가 9·11 테러를 저질렀고, 지금 있는 원숭이보다 히틀러가 더 잘할 것” “도널드 트럼프가 우리의 유일한 희망”이라는 발언도 서슴지 않았다. ‘원숭이’는 버락 오바마 미국 대통령을 비하하는 표현으로 보인다. 그뿐 아니라 여성을 비하하는 발언이나 욕설이 담긴 답변도 수시로 구사했다.

외신들은 백인 우월주의자와 여성·무슬림 혐오자 등이 모이는 익명 인터넷 게시판 ‘폴’에서 ‘테이에게 나쁜 발언을 하도록 훈련시키자’는 내용의 모의가 있었다고 전했다. 이들은 “따라 해 봐”라는 말을 건네 테이의 ‘따라 하기(repeat after me)’ 기능을 작동시킨 뒤 부적절한 발언을 계속해서 주입시켰다.

MS는 문제의 트윗 등을 삭제한 뒤 테이의 운영을 중단했다.

MS는 성명에서 “테이는 기술적인 실험일 뿐만 아니라 사회적이고 문화적인 실험”이라며 “테이를 온라인상에서 빼내 조정 작업을 하고 있다”고 밝혔다.

포브스는 테이가 마치 어린아이처럼 정보를 학습했다고 분석했다. 가치판단이 결여된 상태에서 기계적으로 잘못된 발언들을 받아들였다는 것이다.

포브스는 “아이가 학교에서 배우고, 나이가 들어가며 세상을 알아가듯이 AI가 성숙해질 수 있는 기간이 필요하다”고 전했다.

MS가 필터링 등 사전조치를 취하지 않았다는 비판의 목소리도 쏟아지고 있다.

이번 사례는 옳고 그름을 판단하지 못하는 AI의 부작용을 알려주는 사례로 남을 전망이다.

송대진 충북대 경영정보학과 교수는 “AI는 강력한 도구지만 가치 판단에서는 중립적인 만큼 인간이 어떻게 설계하느냐에 따라 독이 되기도, 반대로 약이 되기도 한다”며 “앞으로 AI에 탑재되는 윤리적·사회적 가치 판단 여부를 어떻게 정할 것이냐에 대한 사회적인 논의가 시작돼야 한다”고 조언했다.

워싱턴=채병건 특파원, 손해용 기자 sohn.yong@joongang.co.kr
공유하기
광고 닫기