본문 바로가기

“제2의 이루다 막겠다”…정부 AI 가이드라인 도입

중앙일보 2021.05.13 17:47
각국 정부가 인공지능(AI) 윤리 등 부작용을 최소화 하기 위한 방안을 내놓고 있다. [사진 픽사베이]

각국 정부가 인공지능(AI) 윤리 등 부작용을 최소화 하기 위한 방안을 내놓고 있다. [사진 픽사베이]

 
#1. “시리(Siri), 오늘 스케줄 알려줘.” 애플의 인공지능(AI) 음성인식 서비스인 ‘시리’와 나눈 이런 대화를 제3자가 듣는다면 어떨까. 지난 2019년 시리와 이용자가 나눈 대화를 애플의 계약업체 직원들이 듣고 있다는 사실이 알려져 논란이 일었다. 애플 측은 “이용자 녹음 파일 평가를 즉각 중단했다”고 사과했다.

 
#2. AI 챗봇 ‘이루다’는 올 초 AI 윤리와 관련한 논란을 남기며 서비스를 시작한 지 20여 일 만에 운영을 중단했다. 데이터 구축 과정에서의 개인정보 침해 가능성, 알고리즘의 편향성, 이용자의 챗봇 성희롱 대화 등이 문제가 됐다. 
 
개인정보보호위원회는 지난달 28일 이루다 개발사인 스캐터랩에 1억330만원의 과징금ㆍ과태료를 부과했다. 그러면서 “스캐터랩은 자사의 연애 정보 애플리케이션 ‘연애의과학’에서 수집한 소비자의 성적 취향 정보를 이용했다”며 “이 부분이 민감 정보라고 판단했다”고 밝혔다. 한국 정부가 사회적 문제를 일으킨 AI 기업을 제재한 첫 사례다

 
챗봇 이루다와 대화하는 모습 [사진 스캐터랩]

챗봇 이루다와 대화하는 모습 [사진 스캐터랩]

 
전 세계적으로 AI 기술이 전 분야에 빠르게 도입되면서 부작용도 곳곳에서 발생하고 있다. 개인정보 유출이나 악성코드 생성, AI 의존도 증가, 저작권 문제 등 광범위하다. 빌 게이츠 마이크로소프트(MS) 창업자는 이미 지난 2015년 “처음에는 AI가 우리를 대신해 많은 일을 하겠지만, 단 몇십 년 후에는 심각한 걱정거리가 될 수도 있다”고 경고했다. 
 

빌 게이츠 “AI가 심각한 걱정거리 될 것” 

정부가 AI 신뢰성을 확보하는 대책을 내놨다. 과학기술정보통신부는 13일 대통령직속 4차산업혁명위원회 전체회의에서 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다. 지난해 12월 발표한 ‘인공지능 윤리기준’의 실천방안을 구체화한 것이다. 민간 자율적으로 신뢰성을 확보할 수 있도록 지원 체계를 만들고, 재정ㆍ기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다.  
 
AI 기술과 관련해서는 2026년까지 295억원을 투입해 원천기술을 개발한다. 일단 AI가 스스로 판단(의사결정)한 기준이나 과정 등을 사람이 이해 가능한 방식으로 설명할 수 있는 기술을 기본으로 개발한다. 이후 AI가 스스로 편향 여부를 진단하고 제거하도록 할 계획이다. 또한 AI를 교란할 수 있는 공격 사례를 분석해 기만 공격을 사전에 감지, 방어할 수 있도록 하는 기술도 개발한다.

 
또 민간 책임을 강화하고 규제 불확실성을 최소화하는 방향으로 정책을 정비할 예정이다. 재정이 열악한 스타트업도 체계적으로 신뢰성을 확보할 수 있도록 AI 구현을 위한 ‘데이터 확보→알고리즘 학습→검증’을 통합 지원하는 플랫폼을 운영할 계획이다.  
 
이와 함께 정부 차원에서 AI 윤리교육 과정을 개발해 교육을 진행한다. 현재 ‘카카오 알고리즘 헌장’ ‘네이버 인공지능 윤리’ 등 정보기술(IT) 기업을 중심으로 윤리 원칙을 수립하기 위한 노력이 이뤄지고 있다. 정부는 이를 바탕으로 시민ㆍ전문가 등 다양한 주체의 의견을 수렴할 수 있는 윤리정책 플랫폼을 운영할 방침이다.

 

“어떻게 ‘고위험 AI’ 규제할 것인가가 관건”

미국은 2019년 국가 AI 연구개발 전략으로 ‘기술적으로 안전한 AI 개발’을 채택했고, IBMㆍMSㆍ구글 등 주요 기업은 AI 개발 원칙을 마련해 자율적으로 규제하고 있다. 유럽연합(EU)은 지난달 세계 최초로 ‘인공지능 법안’을 마련해 법제화를 추진하고 있다. 
 
핵심은 AI가 주는 위험도를 고려해 차등적인 규율을 도입한다는 점이다. 사회적 위험도가 높은 부분엔 아예 AI 도입을 허용하지 않고, 큰 위험이 없다고 판단되는 기술에 대해선 별도 규제 없이 자유롭게 도입 가능하도록 하는 방식이다. 
 
전문가들은 이에 대해 “초기 수준의 단계로, 이 가운데 어떤 부분을 중점적인 화두로 가져갈 것인지에 대해 구체화하는 게 필요하다”고 말한다. 한국은 아직 AI와 관련한 법제화를 추진할지부터 논의가 필요한 단계라는 설명이다. 
 
고학수 한국인공지능법학회회장(서울대 교수)은 “EU의 법안이 공개된 만큼, 이를 국내 상황에 어떻게 적용할지 판단하는 게 향후 과제”라며 “특히 EU 법안의 핵심인 ‘고위험 AI’ 규제를 어떻게 참고할 것인지에 대한 고민도 필요해 보인다”고 말했다.  

 
권유진 기자 kwen.yujin@joongang.co.kr

공유하기

중앙일보 뉴스레터를 신청하세요!