본문 바로가기

지니톡에 물었다 “밥 먹었니?”→ 영어로 답했다 “Did you eat?”

중앙선데이 2014.11.16 03:51 401호 6면 지면보기
통역기는 10년 전만 해도 SF영화나 소설에서 그려졌던 상상의 도구였다. 자동통역은 그동안 다양한 형태로 묘사돼 왔다. 영국 작가 더글러스 애덤스는 일찌감치 그의 소설 『은하수를 여행하는 히치하이커를 위한 안내서』에서 이를 형상화했다. 소설에 등장하는 물고기 ‘바벨피시’다. 물고기를 귀에 집어넣으면 모든 언어가 즉시 통역된다. 주인공은 바벨피시를 통해 외계 생물체와 자유롭게 대화한다.

언어 장벽 허무는 실시간 자동통·번역 기술

 상상은 눈앞의 현실로 펼쳐지고 있다. 인상적인 깃발을 꽂은 것은 마이크로소프트(MS)다. WPC에서 선보였던 것이 바로 MS의 ‘스카이프 트랜슬레이터(Skype Translator)’ 시험판이다. 인터넷 무료 화상전화 서비스에 자동통역 기능을 탑재한 것이다. 물론 완벽하진 않다. 시연 초반과 대화 중간중간에 오인식과 오역이 나오기도 했다. 웃음거리로 끝날 수도 있었다.

 하지만 제 기능을 발휘하면서 4개의 연속된 문장을 오역 없이 완벽하게 통역해 상용화의 가능성을 확인했다. 그 후 5개월여가 지난 이달 초 MS는 스카이프 트랜슬레이터 시험 서비스를 개시했다. 스카이프 책임자인 거딥 싱 폴(Gurdeep Singh Pall)은 스카이프 트랜슬레이터를 두고 “언어의 장벽을 허물 것”이라고 공언했다.

MS·구글·페이스북-ETRI·네이버 각축
자동통역 시장은 글로벌 기업들의 각축장이다. 자동통역 분야의 선두주자는 구글(google)이다. 구글은 2012년 14개국 언어를 자동통역한다는 계획을 발표한 뒤 영역을 지속적으로 확장하고 있다. 현재 ‘구글 트랜슬레이터(google translater)’ 앱을 통해 자동통역서비스를 제공 중이다. 구글이 통역하는 언어는 50여 개에 달한다. 현존하는 자동통역서비스 중 가장 많다. MS의 스카이프가 지원하는 음성 통역은 영어·한국어·중국어·일본어·프랑스어·독일어·스페인어·포르투칼어·이탈리아어·러시아어·아랍어 등 10여 개가 전부다. 문자로 지원되는 언어까지 포함해도 45개다. 이를 감안하면 구글의 자동통역 영역이 얼마나 광범위한지 실감할 수 있다.

 ‘페이스북(facebook)’도 자동통역서비스 시장에 가세했다. 페이스북은 지난해 모바일 음성 번역 앱 ‘지비고(Jibbigo)’ 개발사인 모바일 테크놀러지스(Mobile Technologies)를 인수해 경쟁에 뛰어들었다. 모바일 테크놀러지스는 2009년 설립해 ‘지비고’ 등 다국어 번역 도구를 개발해 온 업체다. ‘지비고’는 25개 이상 언어의 음성 번역을 지원한다. 페이스북에 자동통역서비스를 접목해 세계 이용자들 간의 소통을 원활하게 하겠다는 계산이다.

 국내에서는 한국전자통신연구원(ETRI)과 네이버가 대표적이다. 이들은 통역 솔루션을 자체 개발했다. ETRI는 국내에서 일찌감치 자동통역 연구에 뛰어들었다. 1990년대 초부터 연구개발을 진행해 왔다. 음성언어 장벽을 허물기 위한 연구기관들의 국제협력체인 C-STAR(Consortium for Speech Translation Advanced Research)Ⅱ·Ⅲ에 참여해 국제 공동연구를 수행했다. 4년간의 개발 끝에 2012년 한·영 자동통역서비스인 ‘지니톡’을 내놨고, 이듬해 한·일, 한·중 자동통역서비스를 잇따라 추가했다. 지니톡은 인천 아시안게임에서도 외국인 통역 안내에 활용돼 효자 노릇을 했다. 네이버는 사내 네이버랩스를 중심으로 솔루션을 개발해 네이버사전 앱을 통해 다국어사전 서비스와 함께 한국-일본어 통역서비스 기능을 선보였다. 네이버는 영어·중국어 통역기도 내놓을 계획이다.

자동통역, 빅데이터 싸움: 통역기 강자 ‘포털’
자동통역서비스 경쟁은 빅데이터 싸움으로 불리곤 한다. 왜 그럴까. 자동통역의 작동 원리를 보면 이해하기 쉽다.

 자동통역은 사람이 말한 A언어 음성을 인식해 문자열로 변환하고, 자동번역의 과정을 거쳐 통역 대상 언어인 B언어로 변환한 뒤 음성이나 자막·문자로 출력하는 과정이다. 단순화하면 웹 사이트 등에서 제공되는 번역 서비스 기능의 앞뒤로 음성인식과 출력 기능이 덧붙여진 개념이다.

 그런데 가장 중요한 기능인 음성인식과 자동번역이 대부분 ‘확률통계 방식’에 기반한다. 일정한 규칙을 적용하는 대신, 방대한 데이터 중 입력된 데이터가 가장 근접하는 데이터를 찾아내고, 그 데이터와 매칭되는 인식·번역 결과를 뽑아낸다. 즉 자동번역에서는 제대로 번역·확보된 이중언어(언어 쌍) 말뭉치로부터 번역에 필요한 모델을 만들고, 입력된 문장은 이 모델에 적용돼 번역된다. 당연히 말뭉치 데이터를 많이 확보할수록 정확도를 높일 수 있다. 또 방대한 데이터를 수집할 수만 있으면 통역 범위를 여러 언어로 확장할 수 있다.

 사투리나 은어·줄임말의 통역이 가능하다는 얘기가 나오는 것도 통계기반 방식 때문이다. 가령 ‘밥 묵었나?’라는 사투리의 음성과 문장이 빅데이터에서 ‘너는 밥을 먹었니?’라는 표준어 문장과 ‘Did you eat rice?’라는 번역 문장과 매칭돼 있다면 정확한 통역이 가능한 것이다.

 단, 대규모 음성 및 이중언어 말뭉치 등의 데이터가 확보돼야만 가능하다. 자동통역서비스 경쟁을 빅데이터 싸움이라고 하는 이유가 여기에 있다. 실제 최근 두각을 나타내는 자동통역서비스 업체들은 포털·SNS 등 네트워크 기반의 업체가 대부분이다. 데이터 수집이 용이한 만큼 경쟁력이 있다는 얘기다.

 그래서 구글이 가장 많은 언어를 통역할 수 있는 것은 어찌 보면 당연하다. 각국의 업체들이 자국 언어 중심의 자동통역 솔루션에 강한 것도 이 때문이다.

 구글뿐 아니라 우리나라·중국 등 점유율이 가장 높은 자국 포털사이트를 확보한 국가가 자국어 통역 서비스에서 앞서고 있다. 중국은 중국 내 1위 포털사이트인 ‘바이두’가 중국어·영어 자동통역에서는 구글보다 더 정확한 것으로 평가받고 있다.

 그러면 현 자동통역 수준은 어느 정도일까. 스카이프 트랜슬레이터가 행사장에서 박수를 받긴 했지만 실제 실생활에서 무리 없이 사용할 수준인지는 미지수다.

1 구글번역: ‘밥’을 사람이름, 어말어미 ‘니’를 ‘너의’의 준말로 해석해 잘못된 문장을 내놨다. 2 지니톡: 한국어 특징인 주어가 생략된 의문문을 정확히 인지해 대화가 가능한 문장으로 번역했다.
해외 통역기, 한국어 통역 ‘수준 이하’
현재 자동통역 기능이 제공되고 앱을 직접 사용해 봤다. 구글 트랜슬레이터, 지비고(페이스북 인수), 보이스 트랜슬레이터, 말하기 및 번역(뉘앙스, 음성인식 세계 1위 업체) 등 외국 통역 앱 4개와 지니톡(한국전자통신연구원) 등으로 한정했다. 단순한 문장을 가급적 또박또박 동시에 말하고 각각의 번역 결과를 비교했다.

 먼저 ‘밥 먹었니?’라는 문장을 입력했다. 결과는 저조했다. 5개 통역기 중 하나만 제대로 작동했다. 한국전자통신연구원의 지니톡만이 의문문을 ‘밥 먹었니?’로 정확하게 인식했다. 그리고 ‘Did you eat?’이라고 통역했다. 구글 트랜슬레이터, 뉘앙스, 보이스 트랜슬레이터는 모두 ‘밥 먹었니’라고 제대로 인식하기는 했지만 의문문을 분간하지 못했다. 번역 결과는 모두 ‘Bob ate your’로 같았다. 우리가 먹는 ‘밥’을 사람 이름 ‘Bob(밥)’으로 인식하고, 의문 어미인 ‘니’를 ‘너의’의 준말로 인식한 결과다. 지비고는 ‘먹었니’라고만 인식하고 ‘Did you take ink’라고 번역했다.

 다음은 중앙일보가 진행하고 있는 지역 특산물 쇼핑몰 ‘농마드’의 풀네임인 ‘농부의 마음을 드립니다’를 입력해 봤다. 결과는 비슷했다. 5개 통역기 모두 한국어 음성은 제대로 인식했다. 그러나 지니톡만 ‘I give the feeling of the farmer’라고 번역했다. 지니톡과 지비고를 제외한 3개 통역기는 모두 ‘Will be a farmer’s mind’라고 통역했다. 지비고는 ‘The Farmer’s up my mind’로 번역했다. 문장이 길거나 여러 문장이 연속될수록 결과는 더욱 안 좋았다. 저마다 80~90%에 달하는 음성인식률과 통역률을 자랑하지만, 일상 대화에서부터 여행·병원·국제회의 등에서도 무리 없이 사용하려면 아직은 역부족이다.

실생활 적용 2020년? 번역 기술이 관건
한·영 자동통역은 쉽지 않다. 영어 등 다른 나라 언어와 어순이 다르고 생략이 많아서다. 그래서 한국·일본어 간 통역기는 어느 정도 수준에 도달했다는 평가를 받고 있다. 유럽권 언어 간 통역에서도 한·영보다는 높은 수준으로 보고된다. 사용할 때도 단순한 문장은 무리 없이 작동한다.

 학계 전문가들은 통역기 대중화 시점을 2020년으로 잡고 있다. 시장 규모는 10조원에 육박할 것으로 내다보고 있다. 일본 UFJ통합연구소는 2020년 세계 자동통역 시장 규모를 10조원으로 예상한 바 있다. 하지만 이 시기가 더욱 앞당겨질 가능성도 있다. 새로운 기술과 알고리즘이 개발될 수 있기 때문이다.

 실제 자동통역 연구는 한때 정체기를 맞다가 ‘딥러닝(Deep Learning)’이라는 기술이 적용된 ‘DNN(Deep Neural Network)’이라는 음향인식 모델이 확산되면서 탄력을 받았다. 80% 수준을 맴돌던 음성인식률이 DNN이 적용된 후 88% 수준까지 도약했다. 한계를 극복하는 발판이었던 셈이다. 딥러닝은 컴퓨터가 사람처럼 생각하고 배울 수 있도록 하는 기술을 말한다. 한마디로 기계학습 방법이다. 구글·마이크로소프트·네이버 모두 음성처리에 DNN을 적용했다.

 자동통역을 완벽한 수준으로 끌어올리는 데 걸림돌은 자동번역이다. 자동통역 요소 중 음성인식과 음성출력은 어느 정도 수준에 도달한 것으로 평가된다. 앞선 통역기 시연에서도 음성인식보다는 번역의 문제인 경우가 많았다. 그래서 이제는 자동번역 분야에도 딥러닝을 적용하는 데에 연구의 초점이 맞춰져 있다. 네이버랩스 김준석 부장은 “학계에서는 그동안 음성인식에 적용됐던 딥러닝을 자동번역 쪽에도 어떻게 적용할지 많이 고민하고 있다”며 “아직 번역 분야까지 확산되진 않았지만 올해부터 관련 논문이 조금씩 나오고 있는 만큼 딥러닝을 번역에 적용한 연구사례들이 내년에는 많이 나오게 될 것”이라고 말했다.

 향후 통계기반 번역을 위한 데이터, 딥러닝 등 새로운 기술이 확보된다면 ‘바벨피시’를 갖고 여행하던 주인공과 같은 삶이 요원한 것만은 아닐지도 모른다.


류장훈 기자 jh@joongang.co.kr

선데이 배너

공유하기
광고 닫기