한국정보통신기술협회(회장 손승현·‘TTA)가 인공지능(AI) 생성물의 오남용으로 인한 디지털 범죄 등 사회적 혼란을 막기 위해 AI 기반 합성 콘텐츠의 투명성 확보를 위한 요구사항 표준화를 추진한다고 8일 밝혔다.
최근 경찰청 통계자료에 따르면 AI 기술을 악용한 허위 영상물(딥페이크) 제작 및 유포 등의 디지털 성범죄는 2024년 9월 기준 812건으로 2023년 168건보다 약 5배 증가했다. 그만큼 AI로 생성·합성된 콘텐츠가 ‘진짜 정보’처럼 유통되고 있다.
이러한 범죄가 폭증하고 있는 배경에는 생성형 AI 기술 발전에 따라 누구나 쉽게 ‘현실보다 더 현실 같은’ 콘텐츠를 생성할 수 있게 되면서 특정 콘텐츠가 사람이 직접 창작한 생성물인지 AI를 통한 생성물인지 출처를 식별하기 어렵다는 점도 한몫을 하고 있다.
이와 관련해 정부는 2025년 1월 AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법) 제정 및 2026년 1월 시행 예정으로 생성형 AI가 만든 생성물에는 AI가 생성한 결과물임을 표기하는 ‘AI 표시 의무제’를 도입하기로 했다.
이에 발맞춰 TTA는 AI 생성물의 투명성 연구를 지속적으로 진행해왔으며 2025년 1월 AI 워터마크 기술 동향 보고서를 발간했다. 또한 AI 생성물의 무분별한 악용을 방지하고자 ‘AI 기반 합성 콘텐츠’ 표준화를 추진한다. 본 표준화를 통해 TTA는 AI 생성물 투명성 관련 메타데이터, 워터마크 방식 등 투명성 정보 표시 기술, AI 생성물 생명주기(생성물 생성-제공-활용) 정의, 각 생명 주기별 이해관계자 및 요구사항 등을 제공할 예정이다.
본 표준은 TTA AI신뢰성센터에서 제안하고, 한국조폐공사, 성균관대학교가 참여해 TTA AI 기반기술 프로젝트그룹에서 연내 제정을 목표로 추진 중이다. 해당 프로젝트그룹에는 한국전자통신연구원, 한림대학교, 한국마이크로소프트 등 16개의 산·학·연 기관이 참여하고 있다.
손승현 TTA 회장은 “AI 생성물 활용 범위가 사회 전반으로 확대되고 있는 만큼 사회 전체의 안전한 정보 유통에 있어 AI 생성물에 대한 투명성은 보다 중요해지고 있다”며 “이번 표준화를 통해 AI 생성물 활용성 확대와 신뢰할 수 있는 정보 유통 환경 조성에 기여할 수 있다”고 밝혔다.
김광연 기자
fun3503@chosunbiz.com