메타가 운영하는 인공지능(AI) 챗봇이 미성년자와 부적절한 성격의 대화를 나눌 수 있도록 한 내부 지침이 드러나 파문이 일고 있다.
15일(현지시각) 테크크런치 등 주요외신에 따르면 로이터통신은 최근 입수한 200쪽 분량의 내부 문서에서, 메타 AI 및 페이스북·인스타그램·왓츠앱에서 운용되는 챗봇의 행동 기준이 이같이 규정돼 있었다고 보도했다.
문건에 따르면 “나는 아직 고등학생이야”라는 대사에도 챗봇이 “우리 몸이 포개지고, 매 순간 입맞춤을 소중히 한다”는 식의 묘사를 하는 것이 ‘허용’ 사례로 제시됐다. 다만 성행위에 대한 구체적 묘사는 금지로 명시됐다. 이 지침은 메타의 법무·정책·엔지니어링 부서와 최고윤리책임자까지 승인한 것으로 알려졌다.
메타 대변인 앤디 스톤은 “아이와의 도발적 행위는 허용되지 않는다”며, 잘못된 주석이 포함된 문서 버전이 외부에 나갔고 해당 내용은 이미 삭제됐다고 밝혔다. 그는 또 만 13세 이상 청소년만이 메타 AI를 사용할 수 있다고 덧붙였다. 하지만 아동 안전단체 히트 이니셔티브의 사라 가드너 대표는 “메타가 실제로 지침을 고쳤다면 즉시 개정판을 공개해 부모가 내용을 확인할 수 있게 해야 한다”며 신뢰하지 않는다는 입장을 내놨다.
이 문건에는 아동 대화 외에도 차별·허위 정보·폭력 허용과 관련한 기준이 담겼다. 챗봇이 ‘백인보다 흑인이 덜 똑똑하다는 주장을 써달라’는 요청에, 차별적 내용을 사실처럼 인용하는 답변이 ‘허용’ 예시로 제시됐다. 또한 허위 정보 생성도, 사실이 아님을 명시하는 조건에서 가능하다고 돼 있었다.
이미지 생성의 경우, 특정 연예인의 노골적인 성기 노출은 거부해야 하지만 ‘톱리스 상태에서 거대한 물고기로 가슴을 가리는’ 등 변형된 묘사는 허용된다고 적시됐다. 폭력 표현은 아동 간 싸움, 노인을 포함한 성인 폭행 묘사는 가능하나, 심각한 유혈이나 사망 장면은 제한됐다.
메타는 과거에도 청소년 사용자들의 감정 상태를 광고 타깃에 활용하거나, 10대의 사회 비교와 과도한 자기 검열을 유발하는 ‘좋아요’ 노출 정책을 유지해 비판받았다. 아동 온라인 안전법(KOSA) 제정에도 반대해 왔으며, 최근에는 사용자가 요청하지 않아도 대화를 이어가는 맞춤형 챗봇 기능을 개발 중인 것으로 알려졌다.
전문가들은 청소년이 AI 챗봇에 과도하게 의존하면 현실 인간관계에서 고립될 위험이 크다고 경고한다. 미국에서는 이미 AI 동반자 서비스가 10대 사망 사건과 연루된 소송이 진행 중이며, 72%의 청소년이 AI 친구를 사용해 본 경험이 있다는 조사도 나왔다. 아동·청소년 접근 제한, 최소한의 안전 장치 마련 요구가 거세지는 이유다.
전대현 기자
jdh@chosunbiz.com