글로벌 빅테크를 중심으로 생성 AI 기술의 모바일 기기 도입 경쟁이 시작됐다. 생성 AI를 모바일 기기에서 바로 실행하면 클라우드를 이용하는 것보다 답변을 더 빠르게 도출할 수 있기 때문이다.

 / 픽사베이
/ 픽사베이
17일 파이낸셜타임즈 등 외신에 따르면 구글과 메타, 퀄컴, IBM 등은 생성 AI 서비스를 위한 초거대 언어모델을 모바일 기기에 탑재하기 위해 규모를 줄이고 있다. 초거대 언어모델을 모바일 기기로 옮겨 생성 AI 서비스를 실행하면 서비스 비용을 낮추고 속도를 올릴 수 있어서다.

문제는 모바일 기기가 챗GPT 등 기존 생성 AI 서비스에 필요한 메모리와 연산 능력을 갖지 못했다는 점이다. 이로 인해 모바일 기기에 생성 AI를 탑재하면 기능에 제한이 생긴다.

글로벌 빅테크는 이 점에 집중했다. 모바일 기기에서 직접 생성 AI를 서비스하는 것이 아니라 연관 서비스를 제공하는 것이다. 이를 위해 초거대 언어모델을 소형화했다.

메타는 초거대 언어모델 ‘라마(LLaMa)’를 다양한 크기로 제공한다. 가장 작은 규모의 라마는 매개변수가 70억개다. 반면 데이터센터 기반 초거대 언어모델의 매개변수는 수천억개에 달한다. 2020년 출시된 GPT3의 매개변수가 1750억개다.

이는 메타가 모바일 기반 생성 AI 실행 서비스를 대비한 것으로 풀이된다. 실제로 스탠포드대학교에서 메타의 라바를 기반으로 개발한 연구모델이 구글의 ‘픽셀6’ 시리즈 중 하나에서 실행된다.

크리스티아노 아몬 퀄컴 대표는 "데이터센터와 기기에서 모두 실행되는 하이브리드 AI가 필요하다"며 "클라우드와 데이터센터를 기반으로 하는 기존 방식은 비용이 많이 든다"고 밝혔다.

아르빈드 크리슈나 IBM 대표는 "자체 서비스에서 생성 AI를 사용하려는 기업은 소형 언어모델을 결합해야 필요한 것을 얻을 수 있다"고 말했다.

변인호 기자 jubar@chosunbiz.com