류수정 사피온 대표 “AI 반도체, GPU보다 장점 많다” [AI&CLOUD 2024]
인공지능(AI) 분야가 추론 중심의 활용 영역으로 확장되면서 AI 반도체에 대한 중요성도 함께 부각되고 있다. AI 발전을 위해서는 이를 뒷받침 해주는 클라우드 데이터센터의 스케일업이 요구되며, 여기에는 AI 가속기가 핵심 역할을 하게 된다.
AI 반도체를 개발 및 상용화하고 있는 사피온의 류수정 대표는 27일 서울 웨스틴조선 호텔에서 열린 ‘AI&CLOUD 2024’ 콘퍼런스에서 이 같은 AI 인프라 분야 트렌드를 언급하며 앞으로의 방향성을 제시했다.
류수정 대표는 최근 언어모델 시장의 양극화를 언급했다. 류 대표는 “지난 해까지는 LLM(거대언어모델)의 규모 즉, 파라미터(매개변수) 수를 얼마나 더 늘리는가에 초점이 맞춰져 있었으나 이와 반대로 적은 규모의 언어모델인 ‘SLM’에도 관심이 쏠리고 있다”고 설명했다.
실제 메타, 마이크로소프트 등의 빅테크 기업들은 SLM에 집중하고 있으며 특히 메타의 경우 지난 해 AI 모델 ‘라마2(Llama 2)’를 7B, 13B, 70B 모델로 공개했다. 이 모델들에 이목이 집중됐던 이유는 오픈소스로 공개했다는 부분으로, 이후 개발자 및 AI 기업들이 라마2를 기반으로 한 언어모델 및 서비스를 개발하고 있다.
류수정 대표는 “LLM과 SLM이 나오고 이제는 1bit LLM 방법도 제시되고 있다. 이 방법은 모델의 가중치를 ‘-1, 0, 1’의 세 가지 값으로만 두는 것으로, LLM 연산 비용을 줄이는 등의 컴퓨팅 리소스 부담을 해결할 수 있다. 이처럼 AI 기술 발전을 빠르게 이뤄지고 있다”고 말했다.
이러한 방향과 함께 AI 인프라 확대에 따라 데이터센터의 역할이 더욱 중요해지고 있는 부분도 논의됐다.
류수정 대표는 “데이터센터 쪽에서는 AI에 대한 부담이 커지고 있다. 데이터센터에 AI 반도체가 투입되는 현황을 보면 GPU 비용이 20%가량 상승하고 있다”며 “최근 데이터센터의 라이프사이클이 점차 길어지고 있는데, 서버 교체보다 AI에 먼저 투자하고 있기 때문이다. 이러한 추세가 당분간 이어질 것”이라고 내다봤다.
지난 18일 엔비디아의 연례 개발자 행사인 ‘GTC 2024’에서 젠슨 황 엔비디아 CEO는 차세대 AI GPU ‘B100, B200’과 이를 기반으로 한 AI GPU 시스템 ‘블랙웰’을 발표했다.
류수정 대표는 “엔비디아는 차세대 GPU 발표를 통해 앞으로 AI의 스케일업이 얼마나 중요한가를 보여줬다. 다만 AI 스케일업에 GPU 대비 AI 가속기의 효율성도 분명하다”며 “GPU 대비 저전력으로 AI를 돌릴 수 있고, 도입 비용도 크게 낮출 수 있다”고 말했다.
사피온의 경우 2020년 AI 반도체(X220)를 출시했고 지난 해에는 X330을 출시했다.
류수정 대표는 “AI 칩을 기반으로 카드, 서버, 클라우드 시스템까지 여러 프로덕트 라인업을 구축한 후 다양한 산업(데이터센터, 공장, 언어모델, 자율주행, 보안, 모빌리티 등)에서의 적용사례를 만들고 있다. 무엇보다 중요한 부분은 소프트웨어 개발 환경인데, 이 부분 또한 풀스택 환경을 모두 지원하는 인프라도 구축해놓고 있다”고 설명했다.
조상록 기자 jsrok@chosunbiz.com