[기자수첩] 제2의 스캐터랩이 나오지 않으려면

입력 2021.05.04 06:00

개인정보는 인공지능(AI) 시대 원유로 불리는 데이터의 한 조각이다. 개인정보를 활용하는 기업이라면 ‘보호'와 ‘활용’의 사이에서 줄다리기를 잘 해야 한다.

최근 몇 년 새 글로벌 IT 기업 페이스북은 개인정보 유출 관련 논란의 중심에 섰다. 한국은 AI 챗봇 ‘이루다' 사태에서 개인정보 유출의 위험성을 경험했다. 그리고 개인정보 활용 분야는 전문가들의 의견이 지속해서 엇갈릴 만큼 복잡한 분야라는 것도 깨달았다.

어느 범위까지 가명처리를 해야 제대로 된 가명정보라 할 수 있을까. 아직 그 기준은 정립되지 않았다. 주무부처인 개인정보보호위원회는 카카오톡 대화 전체 내용이 개인정보가 될 수 없다고 판단했지만, 이 역시 논란의 여지가 남았다.

AI 업계는 이번 이루다 행정처분을 두고 정부의 규제로 인해 AI 시장 자체가 위축될 수 있다고 염려한다. 스캐터랩 대표는 행정처분을 받기 전 회사 입장을 소명하는 자리에서 자신들이 AI 발전에 걸림돌이 될 수 있다는 고민이 있다고 언급한 바 있다.

과도한 규제가 정답은 아니지만, 무분별한 신기술 도입도 능사는 아니다. 기업의 불확실성을 줄여주기 위한 최소한의 기준이 필요한 시점이다.

스캐터랩 변호인 측은 정보 활용 관련 충분한 선례가 없어 회사 서비스에 미흡한 점이 발생했다는 점을 참작해 달라고 정부에 요청했다. 경험이 적은 소규모 스타트업이라는 점을 들어 처벌 수위를 낮춰달라는 것이다. 하지만 이것이 면죄부가 될 순 없지만, 개인정보 이용 관련 명확한 기준도 없는 상태에서 벌을 주는 것 역시 논란이 여지가 있다. AI 윤리 기준도 중요하지만 기업이 실질적으로 사업을 할 때 필요한 가명정보와 비식별 정보 처리 등에 대한 세부적인 가이드라인 마련이 시급하다.

개인정보 활용에 따른 사생활 유출 문제를 유발한 이루다 사태는 한 번으로 족하다. 이루다의 사례가 진짜 걸림돌이 되지 않으려면 기준이 없다는 변명을 하는 대신, 자율적으로 규제를 지키는 노력이 필요하다. 한번 이용자의 불신을 받은 서비스는 다시 자리를 잡을 가능성이 낮다. 스스로 AI 윤리 강화를 통한 신뢰 구축이 필요한 때다.

류은주 기자 riswell@chosunbiz.com



키워드