하이브가 음악에 인공지능(AI)·확장현실(XR) 기술을 활용한 신규 아티스트 프로젝트 ‘미드낫(MIDNATT)’를 공개했다.

왼쪽부터 정우용 하이브IM 대표와  미드낫(활동명), 신영재 빅히트뮤직 대표가 기념사진을 촬영하고 있다. / 하이브
왼쪽부터 정우용 하이브IM 대표와 미드낫(활동명), 신영재 빅히트뮤직 대표가 기념사진을 촬영하고 있다. / 하이브
빅히트뮤직·하이브IM 첫 협업 프로젝트

하이브는 15일 서울 용산 아이파크몰 CGV에서 기자간담회를 열고 신규 아티스트 미드낫과 미드낫의 첫 디지털 싱글 ‘마스커레이드(Masquerade)’를 소개했다. 미드낫은 음악과 기술을 융합한 프로젝트로 음악을 담당하는 빅히트뮤직과 기술 솔루션을 담당하는 하이브IM이 협업해 탄생했다.

마스커레이드에는 AI를 활용한 다국어 발음 교정 기술과 보이스 디자인 기술이 적용됐다. 다국어 발음 교정 기술은 특정 언어를 자연스러운 원어민 발음으로 교정해 구현하는 것을 말한다.

하이브IM은 수퍼톤 기술을 활용해 미드낫이 6개 언어로 직접 부른 노래의 발음을 보완했다. 수퍼톤은 올해 1월 하이브가 인수한 AI 기업이다. 보이스 디자인 역시 수퍼톤의 기술로 마스커레이드 중간에 삽입된 여성 보컬 부분에 사용됐다. 음악 콘셉트에 어울리는 여성 음색을 제작해 미드낫이 직접 부른 부분에 합성했다.

마스커레이드의 뮤직비디오에는 XR 기술이 활용됐다. 이는 하이브IM과 버추얼 프로덕션 기업 자이언트스텝의 협업으로 이뤄졌다. 하이브에 따르면 뮤직비디오 촬영과 제작에 크로마(크로마키)와 LED 기반 XR 시스템을 동시에 활용했다.

하이브는 녹색 스튜디오에서 먼저 촬영하고 나중에 배경을 합성하는 크로마와 5면의 LED 화면에 가상 공간을 띄워 360도 영상을 촬영하는 XR 시스템을 결합해 더 자연스러운 가상공간을 연출했다고 설명했다.

정우용 하이브IM 대표는 "음악에 기술을 결합해 아티스트의 상상력을 제약하지 않고 메시지를 전달해 새로운 음악 세계를 선보일 수 있다"며 "미드낫의 마스커레이드에서 음악과 기술이 만들어낼 수 있는 시너지를 구체화했다"고 말했다.

기술 활용한 음악 콘텐츠

이날 간담회 발표 내용은 ‘기술이 글로벌 진출을 돕는다’와 ‘기술이 아티스트 상상력의 한계를 허물 수 있다’로 요약된다. 다만 미드낫 프로젝트에서 기술은 음악을 보조하는 정도에 그쳤다. 오히려 마케팅 수단으로 활용된 모양새여서 아쉬움을 자아냈다.

예를 들어 하이브는 마스커레이드 뮤직비디오에 XR 시스템과 프리버추얼 기술을 사용했다고 설명했다. 이 기술은 LED 스튜디오에 가상 배경을 띄우고 실시간으로 그 결과를 확인할 수 있다. 이는 이미 다양한 영상 콘텐츠 제작에 사용된 버추얼 프로덕션과 같은 개념이다. 하이브가 버추얼 프로덕션 대신 다른 용어를 썼을 뿐이다.

버추얼 프로덕션은 마스커레이드 뮤직비디오 제작을 위해 협업한 자이언트스텝뿐 아니라 다양한 기업에서 활용하고 있다. 버추얼 프로덕션으로 제작한 영상 콘텐츠로는 디즈니 ‘만달로리안’, 넷플릭스 ‘고요의 바다’와 ‘스위트홈’, CJ ‘환혼’ 등이 꼽힌다.

정우용 하이브IM 대표는 "아직 기술을 중심으로 프로젝트를 진행하겠다고 생각해 본 적이 없다"며 "아티스트가 전하고 싶은 메시지나 음악을 만드는 프로듀서가 주고 싶은 메시지를 전달할 때 기술이 지원해주는 형태다"라고 말했다.

변인호 기자 jubar@chosunbiz.com