인스타그램에서 누군가를 괴롭히는 게시물을 지속적으로 올리면 계정 자체가 즉시 삭제된다. 인스타그램 주 이용자인 청소년 사이에서 늘어나는 사이버 폭력을 막기 위해 인스타그램이 내놓은 조치다.

인스타그램은 일정 기간 동안 정해진 횟수 이상으로 유해 게시물을 올리는 계정을 즉시 삭제하도록 하는 스트라이크 아웃 모델을 도입한다고 22일 밝혔다.

./ 인스타그램 제공
./ 인스타그램 제공
이전까지 인스타그램은 전체 게시물 대비 유해 게시물이 차지하는 비율을 기준으로 계정 차단 조치를 취했다. 이 때문에 유해 게시물을 반복적으로 올리고 게시물을 바로 삭제하는 편법도 가능했다. 또한 전체 게시물 수가 많아 비교적 유해 게시물 비중이 적어 비활성화를 피해가는 경우도 있었다.

인스타그램이 삭제하는 유해 게시물은 혐오발언을 담고 있거나 누군가에게 사이버 폭력을 가하는 내용 등이 포함된다. 혹은 나체 이미지나 성적 행위를 드러내는 음란 게시물도 포함된다.

또한 이번 업데이트에는 유해 게시물을 올린 계정 소유자에게 게시물이 삭제됐다는 알림과 함께 해당 계정이 비활성화될 수 있다는 안내를 띄우는 기능도 포함됐다. 앞으로 댓글이나 게시물을 올리기 전에 이용자 스스로 게시물 내용을 검토하고 올리도록 독려하기 위해서다.

게시물이 삭제되거나 계정 비활성화 조치를 받은 이용자는 해당 알림을 통해 재심사를 요청할 수 있다.

앞서 인스타그램은 8일 인공지능(AI)기술을 이용해 악성 댓글을 차단하거나 사이버 폭력을 막는 기능을 선보이기도 했다.

AI는 자동으로 악성댓글인지 여부를 판단해, 이용자가 공격적인 내용으로 댓글을 적으면 ‘댓글을 정말 올리겠습니까'라는 안내문이 뜬다. 이미 올린 댓글도 AI가 분석해 경고조치한다.

이외에도 인스타그램은 악성 댓글 피해자가 가해자 활동을 제한할 수도 있게 했다. 가해자가 계정에 댓글을 달아도 피해자가 직접 승인하지 않으면 피해자와 피해자 계정을 보는 다른 사람들이 댓글을 볼 수 있도록 하는 조치다.