페이스북이 지난 3분기에 무려 870만장에 달하는 어린이 누드 사진을 최신 소프트웨어로 적발해 자동 삭제한 것으로 드러났다.

24일(현지시각) 로이터 통신 인터뷰에서 페이스북의 글로벌 안전 책임자인 앤티건 데이비스는 지난 3개월간 이용자가 올린 870만장의 어린이 누드사진을 삭제했다고 밝혔다.

. / 조선일보 DB
. / 조선일보 DB
페이스북이 2018년 1분기 성행위나 성인 누드를 문제삼아 일방적으로 삭제한 포스팅과 코멘트는 2100만건에 달한다. 이 중 어린이 누드사진도 일부 포함된 것으로 보이지만 페이스북이 구체적 수치를 발표한 적은 없다.

데이비스는 "최근 도입한 소프트웨어인 기계학습 도구는 우리가 우선순위를 매길 수 있도록 돕는다"면서 "더 효율적으로 어린이 누드 사진을 걸러낼 수 있다"고 설명했다.

데이비스는 또 페이스북이 성적 대상으로 삼기 위해 어린이에게 친근하게 접근하는 사용자를 적발하는 새 필터링 시스템도 가동되고 있다고 설명했다.

그는 "이 시스템이 채용한 기계학습 도구는 내부 평가위원에게 문제가 있는 콘텐츠를 더 효율적으로 제시하고 있다"며 "인스타그램 앱에도 이를 적용하는 방안을 모색 중이다"라고 말했다.

페이스북은 수년 전부터 사용자가 선의로 가벼운 옷차림의 어린이이 등장하는 가족사진을 올렸을 때도 타인에게 악용될 소지가 있다는 우려로 이를 차단하고 있다. 하지만 광고업체와 언론사 등은 페이스북의 기계학습 도구가 정상적인 게시물도 차단하고 있다고 지적한다.

데이비스는 "자동 필터링 시스템이 실수할 수도 있지만 어린이 관련 문제에는 신중한 것이 낫고 사용자에게 더욱 주의를 줄 수 있다"고 말했다.