“2주 100만 다운로드”… 딥시크, 허깅페이스서도 인기 실감

“오픈소스 모델의 승리” 파생 모델 생성도 빠른 증가

2025-02-05     조상록 기자
 / 플리커

중국 인공지능(AI) 스타트업 딥시크(DeepSeek)가 AI 모델 공유 플랫폼 허깅페이스(Hugging Face)에서 폭발적인 성장세를 기록하며 글로벌 AI 생태계에 새로운 바람을 일으키고 있다.

허깅페이스의 통계를 보면 딥시크의 R1 모델은 현재까지 약 104만 회의 다운로드를 기록했다. 지난 1월 20일 공개된 이후 2주 간 다운로드 기록으로는 이례적이다. 딥시크 V3 모델은 93만 회의 다운로드를 기록했다.

지난 해 12월 초 출시한 메타의 AI 모델 ‘라마(Llama) 3.3 - 70B’의 다운로드 수는 60만 회다. 허깅페이스의 인기 순위에서 항상 선두에 있는 알리바바의 AI 모델 ‘큐원(Qwen) 2.5-7B-인스트럭트’의 경우 한 달 간 다운로드 수는 110만 회다.

주목할 만한 점은 R1 모델이 공개된 지 2주 만에 3300개 이상의 파생 모델이 생성됐다는 것이다. 이는 메타의 라마 3.3이 2개월 만에 430개의 파생 모델을 기록한 것과 비교하면 약 7.6배 빠른 속도다.

이러한 딥시크의 급부상은 사실 허깅페이스의 클레망 들랑 CEO가 이미 예견한 바 있다. 들랑 CEO는 2025년을 앞두고 “중국의 오픈소스 AI가 부상하면서 글로벌 AI 경쟁 구도에 큰 변화가 예상된다”며 딥시크 R1, 큐원 등의 오픈소스 AI 모델의 급성장을 꼽았다.

딥시크의 기술적 혁신은 전문가 혼합 아키텍처에 기반을 두고 있다. R1 모델은 총 6710억 개의 매개변수를 보유하고 있지만 실제 작업 시에는 340억 개만 활성화된다. 이를 통해 연산 비용을 기존 대비 90~95% 절감할 수 있었다. 이는 오픈AI의 o1 모델과 비교했을 때 동등한 성능을 유지하면서도 토큰당 비용이 약 2% 수준에 불과한 것으로 나타났다.

딥시크의 성공 요인 중 하나는 완전 오픈소스 정책이다. 모델 아키텍처와 가중치를 모두 공개함으로써 연구자와 개발자들이 자유롭게 모델을 수정하고 배포할 수 있게 했다. 그 결과 공개 2주 만에 의료 영상 분석 툴킷 ‘MedR1’, 금융 예측 모델 ‘Finetuner-V3’, 게임 개발용 ‘GameCoder-R1’ 등 다양한 분야의 특화 모델들이 등장했다. 오픈AI나 구글과 같은 기업들이 API 기반의 유료 서비스만을 제공하며 기술 접근성을 제한해온 것과 대조적이다.

딥시크의 등장은 글로벌 AI 시장에 다각적인 영향을 미치고 있다. 하드웨어 시장에서는 엔비디아 H100 그래픽처리장치(GPU)에 대한 수요 감소가 예상되는 반면 화웨이의 어센드 910C 칩의 글로벌 유통이 확대될 것으로 전망된다. 소프트웨어 측면에서는 AWS, 알리바바 등 주요 클라우드 플랫폼들이 딥시크 모델을 신속하게 통합하고 있다.

딥시크의 급부상에 대해 글로벌 AI 업계 리더들은 다음과 같은 평가를 내놓으며 향후 경쟁 구도 변화를 예고했다. 오픈AI CEO 샘 올트먼은 “딥시크 R1은 분명히 인상적인 모델”이라고 평가했고 메타의 AI 수장 얀 르쿤은 “이것은 중국의 승리가 아닌 오픈소스 모델의 승리”라고 강조했다. 마이크로소프트 사티아 나델라 CEO는 “진정한 혁신을 보여주는 사례”라고 평가하며 기술 다각화의 필요성을 시사했다.

조상록 기자
jsrok@chosunbiz.com