인텔과 미국 오하이오 슈퍼컴퓨터 센터(OSC: Ohio Supercomputer Center), 델 테크놀로지스, 엔비디아의 협업으로 구현된 고성능 컴퓨팅(HPC) 클러스터인 ‘카디널(Cardinal)’이 20일(현지시각) 공개됐다. 

카디널 클러스터는 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계됐다. 기능과 용량 등 모든 면에서 새로운 클러스터는 2016년 선보인 ‘오웬스(Owens)’ 클러스터 대비 큰 향상을 제공하며, OSC의 처리 능력을 두 배 이상 향상시킬 것으로 기대된다.

인텔·델·엔비디아의 협력으로 구현된 OSC의 카디널 클러스터 / 인텔
인텔·델·엔비디아의 협력으로 구현된 OSC의 카디널 클러스터 / 인텔

OSC의 카디널 클러스터는 델의 파워엣지(PowerEdge) 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈를 활용한 이기종 시스템으로 구성됐다. 이 시스템은 총 756개의 인텔 제온 맥스 시리즈 CPU 9470 프로세서를 탑재해 총 3만9312개 CPU 코어를 갖췄으며, 노드당 128기가바이트(GB)의 HBM2e 메모리와 512GB의 DDR5 메모리를 갖췄다. 

이와 함께, 카디널 클러스터에는 노드당 104코어, 1테라바이트(TB) 메모리, 94GB HBM2e 메모리를 탑재한 엔비디아 H100 텐서코어 GPU가 네 개 장착된 노드가 32개 포함됐다. 대규모 대칭형 멀티프로세싱(SMP) 유형의 작업을 위해 16개 노드에는 노드당 104코어, 128GB HBM2e 메모리와 2TB DDR5 메모리를 갖춘 구성을 제공한다.

이 외에도, 카디널 클러스터는 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2(Nvidia Quantum-2) 인피니밴드(InfiniBand)를 갖춰, 대규모 AI 기반 과학 애플리케이션을 위해 FP8 텐서 코어 기준 최대 500페타플롭스(PFlops)의 AI 성능을 제공할 수 있다.

단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춰 다양한 사용 케이스를 쉽게 도입, 배포할 수 있다. 카디널 클러스터는 HBM 기술의 대규모 활용으로도 주목할 만한 사례다. 제온 맥스 시리즈 CPU의 HBM 활용과 함께, 엔비디아의 ‘매그넘 IO’ GPU다이렉트 원격 직접 메모리 접근 기술을 활용해 AI 워크로드 등에서 클라이언트가 클러스터의 GPU를 더 효과적으로 활용할 수 있게 돕는다.

새로운 ‘카디널’ 클러스터는 지난 2016년 구축된 ‘오웬스’ 클러스터를 대체한다는 계획이다. 기존 ‘오웬스’ 클러스터는 하반기 중으로 예정된 카디널 클러스터의 상용 서비스 이후에도 3달간 유지될 계획이다.

오기 브르기치(Ogi Brkic) 인텔 데이터 센터 AI 솔루션 제품군 총괄 부사장은 “인텔 제온 CPU 맥스 시리즈는 가장 널리 채택된 AI 프레임워크와 라이브러리를 활용해 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지"라며 "이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것이다”고 밝혔다.

권용만 기자 yongman.kwon@chosunbiz.com