UC버클리 연구진이 발음하지 않아도 단어를 파악하는 인공지능(AI)기술을 선보였다.

이번 연구를 주도한 댄 클라인(Dan Klein) 컴퓨터 과학 교수와 데이비드 개디(David Gaddy) 박사과정에 따르면, AI는 음성 대신, 발음과 관계된 얼굴과 목의 근육을 전기 자극을 통해 감지한다. AI로 근육의 움직임을 통해 무음을 파악한 경우는 세계 최초 시도다.

 안면 근전도(EMG) 검사하는 모습(좌측)과 측정된 다양한 EMG 데이터. / Digital Voicing of Silent Speech(2020)
안면 근전도(EMG) 검사하는 모습(좌측)과 측정된 다양한 EMG 데이터. / Digital Voicing of Silent Speech(2020)
무음 감지 AI는 안면 근전도(EMG) 검사 결과를 토대로 학습했다. 그 결과 다른 방식보다 베이스라인(AI 성능 파악을 위한 기준)에서의 오류가 95% 감소해 뛰어난 성능을 증명했다.

무음 감지 AI는 다양한 분야로 응용할 수 있는 가능성이 높다. 특히 청각 장애인에게 큰 도움이 될 것으로 기대된다. 연구진은 논문에서 "주변 사람을 방해하지 않고 전화를 할 수 있는 헤드셋과 비슷한 장치를 만들 수 있다"며 "청각 장애인과 소통에서 큰 도움이 될 수 있다"고 밝혔다.

한편 무음 감지 AI 논문은 11월 중순 온라인 개최된 EMNLP에서 최우수 논문으로 선정됐다. EMNLP는 자연어처리 분야 세계 최고 수준의 논문을 선정하는 행사다. 또 댄 클라인 교수와 데이비드 개디 박사과정은 20시간에 달하는 안면 EMG 데이터를 오픈소스로 공개해 세계 연구진 참여를 독려했다.

송주상 기자 sjs@chosunbiz.com