전 세계적인 생성형 인공지능(AI)과 거대언어모델(LLM) 열풍과 함께 생성형 AI 구현의 기반이 된 엔비디아의 그래픽처리장치(GPU)에 대한 관심이 폭발적으로 높아졌다. 특히 H100 GPU는 개당 수천 만원의 높은 가격에도 ‘돈이 있어도 구하기 어려운’ 제품으로 꼽혔고 글로벌 빅테크들은 더 많은 GPU를 확보하기 위해 대규모 투자를 발표하기도 했다.엔비디아의 H100 GPU는 본격적으로 선보인 지 2년 이상 지났음에도 여전히 AI 업계에서 현존 최고의 성능을 제공하는 상징적인 존재다. 높은 가격에도 여전히 마땅한 대체재를 찾기
전 세계가 ‘인공지능(AI)’ 기술 경쟁을 펼치는 현재 상황에서 국가와 기업이 확보한 그래픽처리장치(GPU) 인프라 규모는 조직과 국가의 AI 경쟁력을 측정하는 지표 중 하나로도 다뤄지고 있다. 특히 ‘챗GPT’ 이후 거대언어모델과 생성형 AI 모델들이 본격적으로 경쟁을 시작하면서 엔비디아의 ‘H100’으로 상징되는 고성능 GPU에 대한 관심과 수요도 폭발적으로 늘었다. 이제 주요 글로벌 ‘하이퍼스케일러’나 ‘빅테크’ 기업들이라 하면 수십만개의 GPU를 가진 게 ‘기본’이 된 모습이다.이에 국내에서도 AI 업계가 GPU 인프라 공급
앞으로의 혁신에 원동력이 될 것으로 기대되는 ‘인공지능(AI)’ 기술의 발전을 위해서는 이에 걸맞은 인프라 환경이 필요하다. 하지만, 아직 국내의 인프라 환경은 글로벌 경쟁력을 갖추기 위해 충분치 않다는 것이 일반적인 의견이다. 국내 AI 업계에서는 지속적으로 최신 AI 기술의 연구와 활용을 위한 ‘그래픽처리장치(GPU) 인프라’의 부족을 제기해 왔다. 최근에는 “국내 전체를 통틀어도 H100 GPU가 2000개 정도밖에 없다”는 주장도 제기된 상태다.하지만 국내 서버 시장 추정 규모와 업계의 GPU 서버 매출 비중 등으로 추정했을
인공지능(AI)은 이제 정보통신(IT) 뿐만 아니라 사회 전반, 그리고 전 세계적인 핵심 혁신 트렌드로 꼽히는 주제가 됐다. 이에 전 세계적으로 많은 국가, 기업들이 AI 시대 기술 주도권을 잡기 위해 치열한 경쟁과 함께 과감한 투자에 나서고 있다. 최근 몇 년간 점점 예민해지고 있는 미국과 중국간의 무역 분쟁도 이제는 그 핵심 영역에 ‘AI’가 자리잡고 있을 정도다.특히 AI 기술을 위한 ‘인프라’ 측면에서는 미국의 오픈AI나 마이크로소프트, 메타는 물론 일론 머스크의 xAI까지 많게는 수십만 개의 최신 그래픽처리장치(GPU)를