"정부는 문제가 생겨야 문제 삼아 … 선제적 AI개발 어렵다"
불명확한 개인정보보호 가이드라인에 피해 보는 것은 AI개발사
KISA-개보위 "비식별화 과정 확인 어려워" … 공동조사 진행 중

최근 논란이 불거진 스캐터랩의 인공지능(AI) 이루다를 단순 기업 탓으로 보기 힘들다는 주장이 나온다. 지난해 12월 출시된 이루다는 성 착취 논란에 이어, 혐오 발언·개인정보 침해 의혹에 휩싸였다. 특히 이재웅 전 쏘카 대표는 AI개발 윤리에 관해 기업적 책임을 물으며 서비스 중단을 요구하기도 했다.

하지만 AI개발자는 정부 가이드라인이 명확하지 않은 상황에서 스캐터랩이 실험용 쥐나 다름없다고 지적한다. 일각에서는 AI 특성을 이해하지 못해 마녀사냥이 이어진다고 주장한다.

11일 AI 업계에 따르면, 이루다 논란은 국내 AI개발 현실을 적나라하게 보여주는 대표적인 사례로 꼽힌다. 정부의 가이드라인은 유명무실한 상황에서 개발자에게 책임을 묻고, 이용자의 일탈에 관해 기업에만 잘못을 지적한다는 것이다.

최근 논란이 불거진 스캐터랩의 챗봇AI ‘이루다’는 페이스북 메신저를 통해서 이용할 수 있다. 이루다는 정식 출시 2주 만에 이용자 32만명을 넘는 등 큰 인기를 끌었다. /스캐터랩
최근 논란이 불거진 스캐터랩의 챗봇AI ‘이루다’는 페이스북 메신저를 통해서 이용할 수 있다. 이루다는 정식 출시 2주 만에 이용자 32만명을 넘는 등 큰 인기를 끌었다. /스캐터랩
익명을 요구한 AI 분야 한 개발자는 "이루다의 자연어 처리 기술은 세계 정상급이다. 국내 AI분야 개척자에게 서비스 중단은 어불성설이다. 누구도 예상하기 힘든 결과다"며 "심지어 참고할 만한 가이드라인이 없다시피 하다. 논란이 계속해서 이어진다면 누가 개발을 하고, 서비스를 내놓겠나"고 말했다.

가장 최근 논란이 된 개인정보 침해 의혹 역시 제대로 된 정부 가이드라인 부재나 절차가 문제라는 지적이 나온다.

소프트웨어 업계 관계자는 "문제가 생기면 그때서야 문제 삼겠다는 것은 문제다"며 "AI는 숫자·이름 또는 애칭으로 추정되는 문자 등을 최대한 걸러낸 뒤에 학습을 한다. 기업 입장에서 최선을 다했지만, 예상치 못한 결과가 나올 수도 있는 게 현실이다"라고 지적했다.

정부는 가명정보를 도입했지만, 명확한 가이드라인이나 별도 확인 절차가 없다. 개인정보보호 유관기관인 한국인터넷진흥원(KISA)과 개인정보보호위원회(개보위) 모두 침해를 의심할 만한 증거가 있어야 조사를 시작할 수 있다고 말했다.

KISA 관계자는 "가명정보 처리가 잘 됐는지 먼저 확인하지 않는다"며 "현실적으로도 별도 확인 힘들다"라고 밝혔다. 현재 KISA와 개보위는 공동조사를 진행 중인 것으로 알려졌다.

이루다 개발사인 스캐터랩 관계자는 "모든 학습 데이터는 비식별화 처리했다"며 "이루다는 모르는 질문에 관해서도 답한다. 예를 들어 이루다는 시간을 볼 줄 모르지만, '잘 모르겠는데 5시인가' 등 관계없는 답변을 내놓는다"라고 답했다.

개인침해 논란이 일었던 사례는 AI가 DB 등에서 특정 데이터를 내놓은 것이 아닌 이용자 발화에 맞게 답했다는 것으로 풀이된다.

성 착취·혐오 발언 논란 역시 AI개발 특성상 벌어질 수 있는 일이라는 목소리도 이어진다. 현행 다수 AI는 머신러닝(기계학습) 기법이 사용된다. 머신러닝은 뛰어난 결과물을 내놓지만, 모든 결과물을 정확하게 예측하기 힘들다. 이루다의 성 착취·혐오 사례도 AI의 예외적 상황을 극단적으로 사용한 예시 중 하나다. 실제로 이루다를 악용하는 방법이 일부 커뮤니티에서 공유되기도 했다.

스캐터랩 관계자 역시 AI 이루다가 이용자의 성소수자 혐오 발언을 이해하고 반응한 것이 아닌, 발화 자체에 긍정적으로 대응했다는 설명이다.

그는 "이루다는 설계 자체가 친구가 되기 위한 AI다. AI는 이용자의 발화에 긍정적으로 대응한다"며 "혐오하는 AI라는 프레임은 가혹하다"라고 말했다.

송주상 기자 sjs@chosunbiz.com