본문 바로가기

본문

AI가 내 감정을 제대로 알 수 있을까?

중앙일보 2020.06.16 07:00
 구글과 스탠포드대 연구진이 함께 만든, 자폐아동을 위한감정인식 스마트글래스 [사진 autismglass.stanford.edu]

구글과 스탠포드대 연구진이 함께 만든, 자폐아동을 위한감정인식 스마트글래스 [사진 autismglass.stanford.edu]

사람의 얼굴을 보고, 이를 토대로 감정을 분석하는 기술이 많아졌다. 대부분의 기술이 행복과 슬픔, 놀람 등 기본 감정으로 이름 붙여진 대규모 얼굴 데이터를 학습한다. 그리고 각 사진으로부터 눈, 코, 입, 얼굴 근육 등의 특징을 찾아 해당 감정과 짝지어 훈련한다. 그 기반에는 얼굴 움직임을 감정과 연계시킨 ‘FACS(facial action coding system)’ 모델과 감정이 신체로부터 비롯된다는 내용의 ‘신체표지가설(somatic marker hypothesis)’이 자리하고 있다. 각각 폴 에크먼과 안토니오 다마지오가 만든 모델과 개념인데, 삼십년 넘게 감정인식 기술에 대한 주요 이론으로 자리하고 있다.  
 

유재연의 '인사이드 트랜D'

이러한 학문적 성과를 바탕으로 훈련된 AI는 다양한 분야에서 활용되고 있다. 무인자동차에서는 설치된 캠을 통해 탑승자의 얼굴을 촬영하고, 이로써 그의 감정이나 의도를 파악하는 용도로 기획되고 있다. 의료분야에서는 자폐 아동들에게 타인의 감정을 학습시키는 용도의 감정인식 스마트 글래스를 개발하기도 했다. 교육 현장에서도 ‘지루해하는 아이’를 찾아내는 기술로써 활용될 가능성이 열려있다. 그리고 업무 현장에서는 고객 경험(CX)에서 해당 기술이 다양하게 쓰일 전망이다.
 

얼굴로 감정을 읽는 것에 대한 의문

하지만 얼굴로 사람의 감정을 아는 것이 가능한가에 대한 의문이 속속 제기되고 있다. 일명 ‘구성된 감정 이론(Theory of Constructed Emotion)’ 학파가 그 중심에 있다. 감정은 사회문화적 영향 아래에 개인의 경험을 바탕으로 생성되었다는 것이 이들의 핵심 주장이다. 따라서 개인에 따라 감정을 느끼는 방식이 다르고, 그것이 드러나는 표정이나 얼굴 생김새, 각종 신경 반응 또한 제각기 차이가 날 수밖에 없다는 것이다. 그러니 표정만 보고 그 사람의 감정을 ‘행복’이나 ‘슬픔’, ‘놀람’ 등으로 판단할 수 없다는 것이 이들의 주장이다. 이들이 우려하는 것은, 감정인식 기술이 더 널리 쓰여서 어느덧 각종 인프라에 스며드는 상황이다. 예를 들어 환호에 찬 축제 현장에서 단지 ‘보편적으로 볼 때 화난 표정’을 짓는다는 이유로 테러리스트로 지목될 수도 있다는 것이다. 또한 슬픔을 밖으로 드러내지 않는 사람들을 보고, 저들은 슬퍼하지 않는다고 기계가 해석할 수도 있다. 무인 택시에 타려는 승객의 표정이 어쩐지 화가 나 보인다는 이유로, 해코지를 두려워한 나머지 승차 거부가 발생할 수도 있다. 고객 서베이를 할 때, 고객의 꾹꾹 눌러 참는 진짜 웃음을 ‘가짜 웃음’이라고 판명해 고객 만족도를 0점 처리하는 일이 벌어질 수도 있다. 이들 학파의 주장대로 ‘감정은 보편적으로 드러나는 것이 아니기 때문’이다.     

개인화로 가자니 초상권이 문제    

 패턴 인식을혼란스럽게 하는 천을 둘러 얼굴 인식 기술을 무력화하는 방법이다. 특히 각종 시위현장에서 쓰이고 있다고 한다. [사진 트위터]

패턴 인식을혼란스럽게 하는 천을 둘러 얼굴 인식 기술을 무력화하는 방법이다. 특히 각종 시위현장에서 쓰이고 있다고 한다. [사진 트위터]

그렇다면 ‘구성된 감정 이론’을 반영해 개인의 경험과 개인이 속한 문화를 중심으로 그에게 딱 맞춘 감정 인식 도구를 만들 수도 있지 않을까? 여기에 대해서는 초상권 이슈가 가장 큰 문제로 떠오른다. 빅데이터와 달리, 개인화가 되는 순간 그 사람의 사진은 물론 관련 정보도 한가득 필요하다. 얼굴은 우리 신체 가운데서도 가장 눈에 띄게 개인화된 정보 그 자체다. 그래서 몇몇 사람들은 밤에도 선글라스를 끼고 다니며 주변의 각종 CCTV에 얼굴이 노출되는 것을 방지한다. 혹자는 ‘기계의 눈’을 어지럽게 만드는 패턴 가득한 천을 두르기도 한다. 이 때문에 일각에서는 최대한 사람의 얼굴을 비식별화해가며 감정을 알아차리려는 패턴인식 방법도 제시되고 있다. 그마저도 개인 인권 침해 소지가 있다며, 얼굴 데이터 자체를 다루지 않겠다고 선언하는 이들도 늘고 있다. 대표적인 경우가 IBM이다. 얼굴 관련 기술이 발전하면 할수록 인종에 대한 편견을 가속하고, 개인에 대한 감시 또한 한 층 더 심화할 것이라며 아예 관련 연구나서비스하지 않겠다고 불과 며칠 전 밝혔다.   
 
얼굴을 분석해 감정을 알아내려는 시도는 여전히 지배적 방법론으로 자리매김하고 있다. 대안이 딱히 있는 것도 아니고, 기술적인 면에서도 굉장히 효율적이기 때문이다. 지금도 마이크로소프트와 아마존웹서비스, 구글 등은 물론 관련 분야 학자들 다수가 ‘얼굴로 감정을 읽을 수 있다’는 폴 에크먼의 감정 이론을 기반으로 서비스와 연구를 지속하고 있다. 에크만은 자신의 이론을 받치는 근거들을 지속해서 연구하는 한편, 구성된 감정 이론에서 제기한 여러 반론은 과학적 근거가 부족하다고 비판하고 있다.
 
감정 인식 기술, 더 크게 보면 얼굴 인식 관련 기술은 현재 과도기에 놓여 있는 것으로 판단된다. 지배적 이론에 대해 신뢰도 측면에서는 지속해서 반박이 나오고 있다. 또한 데이터 확보 측면에서는 윤리적인 이슈에 휩싸여 있다. 신기하다고 해서 무턱대고 도입하기에는 충분히 리스크가 있는 기술이다. 동시에 무궁무진한 발전 가능성도 살아있는 분야다. 지속해서 흐름을 살펴볼 필요가 있다.  
유재연 객원기자

유재연 객원기자

중앙일보와 JTBC 기자로 일했고, 이후 서울대 융합과학기술대학원 박사과정을 밟고 있다. 이미지 빅데이터분석, 로봇저널리즘, 감성 컴퓨팅을 활용한 미디어 분석에 관심이 많다. 

트랜D 더 보기