본문 바로가기

[노트북을 열며] 인공지능의 눈을 훔치는 해킹 스티커

중앙일보 2018.10.04 00:12 종합 30면 지면보기
손해용 경제정책팀장

손해용 경제정책팀장

구글 리서치 그룹이 내놓은 ‘애드버세리얼 패치(Adversarial Patch)’는 이미지를 인식하는 인공지능(AI)의 알고리즘을 교란하는 스티커다. 추상화를 연상시키는 총천연색의 이 원형 스티커를 사물 옆에 두면 AI는 최면에 걸린다. 97%의 확률로 바나나를 알아채던 AI였지만 바나나 옆 공간에 스티커를 붙인 이후에는 99%의 확률로 바나나를 토스터로 인식한다. 이미지 인식 앱인 ‘데미태스’를 이용해 실험한 결과도 같았다. 바나나가 화면에 크게 잡혔지만, 해당 이미지를 설명하는 단어 후보군에는 ‘바나나’가 제시조차 되지 않았다.
 
이 기술이 무서운 이유는 고도화할 경우 손쉽게 AI와 각종 자동화 시스템을 마비시킬 수 있기 때문이다. 예컨대 교통 표지판에 이 패치를 붙이면 자율주행차의 AI는 이를 토스터로 잘못 인식한다. 이 기술을 응용하면 AI가 ‘정지 신호’ 표지판을 ‘가속 신호’ 표지판으로 인식하게 해 사고를 일으킬 수도 있다. 무엇보다 AI나 해킹에 대한 지식이 없는 사람도 인터넷에서 이를 다운받아 사용할 수 있다는 점에서 악용될 가능성이 높다.
 
구글이 이를 공개한 것은 자율주행차·로봇·드론 등으로 AI의 활용이 늘면서 대(對) AI 공격이 현실화하고 있어서다. 이에 대한 경각심을 높이자는 게 구글의 의도다.
 
AI로 인해 인간이 종말을 맞는 시나리오는 크게 두 가지가 꼽힌다. 하나는 영화에서 나오는 것처럼 스스로의 의지를 지닌 AI가 등장해 인간에 대한 반란을 일으키는 것이다. 다른 하나는 나쁜 생각을 가진 인간이 AI를 조작해 다른 인간을 공격하는 것이다. 미래학자들은 기술의 발전 속도를 감안할 때 전자보다는 후자가 실현 가능성이 더 높은 것으로 보고 있다. 예컨대 인간을 공격하지 않도록 만들어졌지만, 해커가 AI를 해킹한 뒤에는 로봇이 인간을 공격하게끔 바꿀 수 있다.
 
미국·중국 등 군사 강국은 이미 적의 배를 추적하는 무인 군용함, 알아서 목표를 정해 돌진하는 미사일, 상공에서 테러리스트를 감시·공격하는 드론 등 AI를 활용한 군사 무기를 개발 중이다. AI의 제어권이 해커에게 넘어간다면 예기치 못한 군사적 위기에 직면할 수도 있다는 얘기다.
 
전 세계 AI 전문가 26명이 펴낸 ‘AI 악용 보고서’는 AI가 전에는 볼 수 없던 새로운 형태의 사회 문제들을 야기하고 있다고 지적한다. 보이스피싱 범죄나 가짜 뉴스를 만드는 등의 도구로 AI가 활용되는 게 한 예다. 테러지원국·범죄자들은 이미 AI를 악용할 수준에 도달했고, 그 기회가 커지고 있다는 게 보고서의 경고다. 이젠 AI의 기능에 감탄하기에 앞서 인류의 미래를 위해 AI의 부작용을 줄이기 위한 논의를 시작해야 할 때가 온 느낌이다.
 
손해용 경제정책팀장
공유하기
광고 닫기