클라우드에서 서버·PC 환경까지 ‘딥시크’ 지원 경쟁

딥시크 자체 서비스 보안 우려에 안전한 사용처 주목

2025-02-10     권용만 기자

지난 1월 선보인 ‘딥시크(DeepSeek) R1’ 시리즈 모델은 업계에 여러 모로 충격과 논란을 안겼다. 개발사가 밝힌 개발 비용은 558만달러(약 80억원)로 기존 기업들의 모델 개발 비용 대비 수십 배 저렴한 수준이었음에도 기존 모델 대비 성능에서는 큰 손색이 없었다. 이는 인공지능(AI) 업계 전반의 천문학적 비용 투자에 대한 ‘거품 논란’을 일으켰고 엔비디아 등 기존 AI 업계 핵심 기업의 주가에도 큰 영향을 줬다. AI 모델 공유 플랫폼 허깅페이스(Hugging Face)에서는 공개 이후 2주간 100만 회 이상의 다운로드를 기록할 정도로 인기도 높다.

하지만 높은 인기만큼이나 ‘딥시크’를 둘러싼 논란도 커지고 있다. 딥시크가 발표한 개발 비용의 신뢰도는 물론 미국의 반도체 수출 통제 정책의 우회 여부에 대한 논란과 딥시크 모델에 사용되는 데이터 관리와 가드레일 정책 등도 논란이 되고 있다. 보안상 딥시크 사용을 막는 조직도 늘고 있다.

딥시크의 모델들은 딥시크가 제공하는 서비스와 앱, API를 통해서 사용하는 것이 가장 편리하겠지만 보안 문제 등의 우려가 제기되고 있다. 하지만 모델이 공개돼 있는 만큼, 이 모델을 외부의 신뢰할 수 있는 위치에 설치하면 데이터 보안 등에 대한 우려 없이도 딥시크 모델을 사용할 수 있다. 이미 주요 클라우드 업체들이 지원 가능한 AI 모델에 ‘딥시크’ 모델을 추가해 완전 관리형으로 사용할 수 있게 제공하고 있으며 서버는 물론 PC 수준에서도 직접 설치, 활용할 수 있는 방법도 있다.

딥시크 홈페이지의 딥시크 R1 관련 문서 페이지 / 딥시크 홈페이지 갈무리
마이크로소프트 애저 AI 파운드리에서 찾을 수 있는 딥시크 R1 모델 / 마이크로소프트 홈페이지 갈무리

주요 클라우드 플랫폼들, 지원 모델에 ‘딥시크’ 추가

이미 아마존웹서비스(AWS)나 마이크로소프트 애저(Azure), 구글 클라우드 등 주요 클라우드 서비스에는 ‘딥시크 R1’ 모델이 제공되고 있다. 

AWS는 ‘딥시크-R1’ 모델을 ‘아마존 베드록’에서 쉽게 통합하고 ‘세이지메이커’를 통해 맞춤형 학습과 배포가 가능한 방법을 제공한다. ‘딥시크 R1 디스틸’은 아마존이 자체 설계한 ‘트레이니움(Trainium)’과 ‘인퍼런시아(Inferentia)’ 가속기에서도 활용할 수 있게 했다.

마이크로소프트 역시 ‘딥시크 R1’ 모델을 애저의 ‘애저 AI 파운드리’와 깃허브(GitHub)에서 사용할 수 있게 모델 카탈로그를 제공하고 있다. 구글은 별도의 발표 등은 없었지만 ‘버텍스 AI(Vertex AI)’ 플랫폼에 ‘딥시크 R1’ 모델의 지원을 추가한 것으로 확인됐다. 

이 외에 스노우플레이크는 ‘코텍스 AI’ 서비스에 ‘딥시크 R1’ 모델을 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공한다고 발표했다. 국내에서도 뤼튼테크놀로지스가 별도 클라우드에 모델을 직접 탑재해 카카오톡 채널로 서비스하는 ‘딥시크 R1 안전서비스’를 제공한다고 발표했다.

딥시크의 자체 서비스가 아닌 외부 클라우드에서 서비스되는 ‘딥시크 R1’ 모델들은 현재 딥시크의 서비스에 제기되는 보안 문제 등에서 자유롭다. 딥시크 R1 모델은 오픈소스 형태로 제공돼 딥시크의 플랫폼이 아니라도 어디서나 직접 구축, 활용할 수 있기 때문이다. AWS나 마이크로소프트, 구글 등이 제공하는 ‘딥시크 R1’ 기반 서비스의 데이터, 보안 정책은 모두 각 사의 정책을 따른다. 

PC에서 ‘LM 스튜디오’로 ‘딥시크 R1 디스틸 라마 8B’ 모델 구동 장면 / 권용만 기자

서버에서 PC 환경까지 ‘딥시크’ 지원 경쟁 중

딥시크 모델에 대한 하드웨어 제조사들 역시 지원을 위해 빠르게 움직이는 모습이다. 딥시크의 등장에 큰 영향을 받은 업체 중 하나로 지목된 엔비디아 역시 ‘딥시크 R1’을 기업의 그래픽처리장치(GPU) 기반 AI 인프라에서 쉽고 빠르게 활용할 수 있도록 ‘NIM 마이크로서비스’ 프리뷰로 제공하기 시작했다. 엔비디아에 따르면, 671B(6710억개 파라미터) 딥시크-R1 NIM 마이크로서비스는 H200 GPU 8개가 장착된 단일 엔비디아 HGX H200 시스템에서 초당 최대 3872개의 토큰을 전송할 수 있다.

671B 모델은 수백 기가바이트의 메모리가 필요해 PC 수준에서 사용해 보기 어렵지만 경량화된 모델들은 일반적인 PC용 그래픽카드나 신경망처리장치(NPU)를 사용해 구동할 수도 있다. 경량화된 ‘딥시크 R1 디스틸’ 모델을 사용하는 데 가장 편리한 방법으로는 ‘LM 스튜디오(LM Studio)’ 등의 툴을 사용하는 방법이 꼽히며 지원 가능한 하드웨어를 갖춘 경우 설치부터 실행까지 몇 번의 클릭으로 해결할 수 있다.

LM 스튜디오 등을 이용하는 경우, 충분한 메모리를 가진 다양한 그래픽카드에서 ‘딥시크 R1 디스틸’ 모델을 인터넷 연결 없이도 사용할 수 있다. 이와 관련해 최근 엔비디아와 AMD는 각각 현 세대의 최상위 모델인 ‘라데온 RX 7900 XTX’와 ‘지포스 RTX 4090/5090’의 딥시크 R1 디스틸 모델에서의 성능에 대해 발표한 바 있으며 양 사의 성능 우위 주장이 엇갈린 점이 눈길을 끌었다. 이는 테스트 환경 구성에서 최적화된 프레임워크의 사용 여부에 따른 차이로 해석된다.

인텔 또한 자사의 PC용 하드웨어에 최적화된 AI 모델을 편리하게 활용할 수 있게 제공하는 ‘AI 플레이그라운드’ 앱의 최신 업데이트를 통해 딥시크 R1 디스틸 모델의 지원을 추가했다. 인텔의 프로세서나 그래픽카드가 장착된 PC라면 ‘AI 플레이그라운드’에서 제공되는 최적화된 환경을 사용하는 쪽을 추천한다. 이 앱에서는 딥시크 R1 디스틸 모델 중 ‘Qwen-7B’, ‘Qwen-1.5B’ 모델 사용을 선택할 수 있다.

마이크로소프트 또한 ‘코파일럿+ PC’의 NPU를 활용해 딥시크 R1 모델을 구동할 수 있는 방법을 제시했다. 비주얼 스튜디오 코드(Visual Studio Code)의 AI 툴킷 확장을 통해 사용할 수 있으며 첫 릴리즈에서는 딥시크 R1 디스틸의 Qwen-1.5B 모델이 마련됐고 7B나 14B 모델은 향후 준비될 예정이다. 현재는 퀄컴 스냅드래곤 X 시리즈만을 지원하지만 향후 인텔 코어 울트라 200V 등도 지원할 예정이다. 마이크로소프트는 이 모델이 ‘코파일럿+ PC’에서 대략 초당 25~40토큰 정도의 성능을 보인다고 언급했다.

이 외에도 딥시크 모델을 직접 사용할 수 있는 다양한 방법들이 있다. 이미 PC나 워크스테이션 급의 하드웨어에서도 적당한 규모의 모델을 GPU와 CPU를 함께 사용해서 활용한 사례나, 아예 CPU와 대용량 메모리만을 사용해 671B 모델을 구동한 사례도 등장했다. 고성능 GPU를 갖춘 시스템 뿐만 아니라 대용량의 통합 메모리를 갖춘 맥 시스템에서도 구동 사례가 나오고 있다. 엔비디아가 지난 CES 2025서 선보인 초소형 AI 슈퍼컴퓨터 ‘프로젝트 디지트’ 또한 기대를 받고 있다.

권용만 기자

yongman.kwon@chosunbiz.com