사람과 흡사한 얼굴 또는 목소리를 만드는 인공지능이 등장해 이목을 끌고 있다.
개발사측은 이 기술을 교육 프로그램과 영화, 화상 회의 등 다방면에 적용할 수 있다고 강조했다. 하지만 일각에서는 이 기술이 문제를 일으킬 수 있다는 주장도 제기한다. 인공지능이 만든 가상의 인물이 현실 인물과 구분할 수 없을 정도로 정교해지면 초상권 침해, 보이스피싱 등 범죄에 악용될 가능성도 있기 때문이다.

삼성 러시아 인공지능 연구소는 23일(현지시각) 인공지능 영상 합성 기술 논문을 학술 사이트 ‘아카이브’에 등재했다.

사진 속 인물과 영상 속 인물의 이목구비 형태 및 움직임을 기계학습으로 분석, 패턴을 찾아낸 후 이 패턴을 토대로 얼굴을 교차 합성하는 원리다. 인공지능 영상 합성 기술을 사용하면 사진 속 인물의 얼굴을 영상 속 인물에 손쉽게 대입할 수 있다.

삼성 러시아 인공지능 연구소가 공개한 인공지능 영상 합성 기술 예제. / 학술 사이트 아카이브 갈무리
삼성 러시아 인공지능 연구소가 공개한 인공지능 영상 합성 기술 예제. / 학술 사이트 아카이브 갈무리
사진 속 인물 얼굴을 영상 속 인물 얼굴로 바꾸는 인공지능 기술은 이전에도 있었다. 하지만, 당시 기술은 인물의 이목구비를 분류하는 능력이 떨어져 인물 사진 수십장을 필요로 했다. 삼성 러시아 인공지능 연구소가 선보인 기술은 인물 사진 한장만 있어도 이목구비 형태를 파악할 수 있다.

삼성 러시아 인공지능 연구소 논문 저자는 이 기술을 화상회의를 비롯한 다양한 영상 부문에 적용할 수 있다고 밝혔다. 하지만, 씨넷을 비롯한 IT 외신은 이 기술이 초상권을 심각하게 침해할 가능성이 있다고 경고했다.

인공지능 영상 합성 기술을 악용하면 CCTV에 담긴 범죄 현장 속 범인의 얼굴을 일반인의 얼굴로 바꿀 수 있다. 반대로 알리바이 영상을 꾸며내는 것도 가능하다. 셀피 사진을 포르노 비디오에 합성하는 사례, 정치인이 등장하는 가짜 뉴스 영상을 만드는 사례도 예상할 수 있다.

네이버 클로바 음성 재현 소개 사진. / 네이버 제공
네이버 클로바 음성 재현 소개 사진. / 네이버 제공
앞서 인공지능으로 사람의 목소리를 흉내내는 ‘인공지능 음성 재현’ 기능도 등장했다. 네이버 인공지능 플랫폼 클로바는 배우 유인나씨의 목소리를 흉내내 화제가 됐다. 아마존과 구글은 음성인식 비서 서비스의 억양, 발음 톤을 최대한 사람과 흡사하게 묘사하기 위한 인공지능 기술을 연구·개발 중이다.

당시에도 업계는 인공지능 음성 재현 기술이 악용될 가능성이 크다고 지적했다. 동영상에서 목소리를 추출한 후 인공지능으로 재현하면 보이스피싱을 비롯한 범죄에 악용할 수 있다. 중요한 회의나 금전 거래 현장에서 오간 이야기를 임의로 왜곡하는 것도, 스마트스피커를 임의로 조작해 제3자가 은행이나 쇼핑 앱을 사용하는 가능하다.

인공지능 기술 개발사측은 악용 가능성을 인정하며 대안을 제시했다. 인공지능이 인물 얼굴 혹은 목소리를 만들 때 식별용 워터마크를 넣는 방안, 사진·영상·음성을 역분석해 인공지능 개입 여부를 파악하는 또다른 인공지능을 개발하는 방안, 기술을 오픈소스로 공개해 법적 증거로서의 효력을 잃게 만드는 방안 등이 유력하다.