페이스북이 내부 고발자 폭로로 도덕성 논란에 휘말린 가운데, 인도에서는 종교갈등을 조장하는 알고리즘과 콘텐츠를 인지하고서도 방치했다는 의혹이 제기됐다.

IT조선DB
IT조선DB
24일(현지시각) AP통신 등 외신에 따르면 페이스북 내부고발자인 프랜시스 하우건 프로덕트 매니저는 2019년 2월 인도에서 이뤄졌던 가계정 실험 결과 등을 공개했다. 그가 공개한 자료에 따르면 페이스북 연구팀은 당시 인도 자이푸르에 거주하는 21세 여성 프로필을 이용해 가짜 계정을 만들어 3주간 서비스 사용 실태를 실험했다.

해당 가계정은 페이스북 알고리즘이 추천한 친구와 페이지 그룹만 팔로우했다. 실험 결과 이슬람 혐오 콘텐츠와 가짜뉴스가 피드 상당수를 차지하게 됐다. 가계정이 팔로우한 계정에는 파키스탄에 대한 인도인들의 보복 공격 게시물, 이슬람교와 무슬림에 대한 혐오 콘텐츠가 넘쳤다.

일각에서는 페이스북이 이러한 사실을 인지했음에도 제대로 조치를 취하지 않았다는 비판이 나온다. 블룸버그 통신은 "페이스북은 유해 콘텐츠 관리 비용을 대부분 미국 등 영미권에 쏟으면서 인도와 인도네시아 등에서는 기본적인 감독도 하지 않고 있다"고 꼬집었다.

페이스북 대변인은 "힌디어와 벵골어 등 다양한 언어로 된 혐오 콘텐츠를 거르기 위해 상당한 기술에 투자하고 있다"며 "그 결과 올해 혐오 콘텐츠를 절반으로 줄였고 꾸준히 개선하고 있다"고 주장했다.

이은주 기자 leeeunju@chosunbiz.com