성차별·개인정보 보호 논란 불거져
AI, 약 아닌 독 될 수 있어 대비할 때
한국 사회가 이루다 논쟁에서 직시해야 할 것은 크게 두 가지다. 첫째는 빅데이터 이용과 관리의 문제다. 이루다는 스타트업 스캐터랩이 자사의 다른 서비스를 통해 연인 간의 카카오톡 대화 수억 건을 입수했고, 이를 바탕으로 챗봇 학습을 했다고 한다. 이용자의 동의도 받았기 때문에 합법적이라는 입장이다. 하지만 대부분 이용자는 대화 내용이 AI 챗봇 서비스의 재료가 되리라고는 상상도 못했을 것이다. AI에 빅데이터는 로켓의 연료와 같은 존재다. 좋은 빅데이터가 들어가야 좋은 AI가 만들어진다. 전문가들은 ‘설명할 수 있고 투명하며, 보편타당한 빅데이터가 사용돼야 한다’고 입을 모은다. 빅데이터 사용에 대한 구체적 동의를 거쳐야 하는 점은 말할 것도 없다.
둘째, 이미 많이 지적되고 있는 윤리 문제다. 미성년자도 사용할 수 있는 챗봇에 혐오와 성희롱적 대화가 난무하게 하는 것은 심각한 문제다. 개발자들이 정교한 알고리즘을 구현해야 함은 물론 이용자도 상식적으로 용인되는 대화를 하는 성숙한 자세가 필요하다.
AI는 이미 우리 삶 속에 깊숙이 스며들고 있다. AI를 장착한 청소 로봇이 집 안 구석구석을 누비며 쓸고 닦는 일을 훌륭히 해내고 있다. 스피커 속으로 들어간 AI는 아직 서투르지만 나름 개인비서 역할을 시작하고 있다. 이런 생활형 AI 외에도 판사의 판결을 돕는 법률 AI, 의사의 진단을 돕는 닥터 AI 등 다양한 전문 영역 속에서 AI가 이미 맹활약하고 있다. 이런 분야에서 AI의 말과 판단이 잘못될 경우 그 여파는 치명적일 수 있다. 이루다 논쟁을 AI 시대의 ‘백신’으로 삼고, 다양한 ‘미래의 충격’을 미리 점검하고 대비해야 할 때다.