삼성전자가 AI 엔진을 탑재한 메모리 반도체 제품군을 확대한다.

삼성전자는 24일 온라인으로 개최된 핫 칩스(Hot Chips) 학회에서 2월 개발한 HBM-PIM과 PIM 기술을 적용한 다양한 제품군과 응용사례를 소개했다.

핫 칩스는 반도체 업계에서 가장 주목하는 차세대 기술이 공개되는 학회다. 주요 반도체 업체를 중심으로 1989년부터 매년 개최된다.

D램 모듈에 인공지능 엔진을 장착한 AXDIMM(Acceleration DIMM) / 삼성전자
D램 모듈에 인공지능 엔진을 장착한 AXDIMM(Acceleration DIMM) / 삼성전자
삼성전자는 24일 학회에서 ▲D램 모듈에 AI엔진을 탑재한 'AXDIMM(Acceleration DIMM)' ▲모바일 D램과 PIM을 결합한 'LPDDR5-PIM' 기술 ▲HBM-PIM의 실제 시스템 적용 사례를 각각 소개했다.

AXDIMM은 PIM 기술을 칩단위에서 모듈단위로 확장한 것으로 D램 모듈에 인공지능 엔진을 장착한 제품이다.

D램 모듈의 동작 단위인 각 랭크(Rank)에 AI엔진을 탑재하고 병렬 처리를 극대화해 성능을 높이고, AI엔진을 통해 D램 모듈내부에서 연산이 가능해져 CPU와 D램 모듈간의 데이터 이동이 줄어들어 AI 가속기 시스템의 에너지 효율을 높일 수 있다. 기존 D램 모듈에 탑재된 버퍼칩에 AI 엔진을 탑재하는 방식으로 기존 시스템 변경 없이 적용이 가능하다.

Rank는 D램 모듈에서 메모리 칩의 일부 또는 전체를 사용해 생성되는 데이터의 한 블록을 뜻한다.

AXDIMM은 글로벌 고객사들의 서버 환경에서 성능 평가가 진행 중이다. 성능은 2배 향상, 시스템 에너지는 40% 이상 감소가 확인됐다.

AI 가속기는 인공지능을 실행하기 위한 전용 하드웨어다.

삼성전자는 초고속 데이터 분석 영역뿐만 아니라 모바일 분야까지 PIM을 확대 적용한 'LPDDR5-PIM' 기술을 공개했다.

PIM 기술이 모바일 D램과 결합할 경우 데이터센터와 연결 없이 휴대폰 독자적으로 AI 기능을 수행할 수 있는 온-디바이스(On-Device) AI의 성능과 에너지 문제를 효과적으로 해결할 수 있을 것으로 예상된다. 시뮬레이션 결과 음성인식, 번역, 챗봇 등에서 2배 이상의 성능 향상과 60% 이상의 에너지 감소가 확인됐다.

온-디바이스 AI는 멀리 떨어진 클라우드 서버를 거치지 않고 스마트기기 자체적으로 정보를
수집하고 연산해준다.

HBM-PIM / 삼성전자
HBM-PIM / 삼성전자
삼성전자는 2월 공개한 HBM-PIM을 실제 시스템에 탑재한 검증 결과도 핫 칩스 학회에서 발표했다.

FPGA 개발 업체인 미국 자일링스(Xilinx)에서 이미 상용화 중인 AI 가속기 시스템에 HBM-PIM을 탑재했을 경우 기존 HBM2를 이용한 시스템 대비 성능은 2.5배 높아지고, 시스템 에너지는 60% 이상 감소됨을 공개하며 참석자들로부터 관심을 받았다.

삼성전자는 PIM 이라는 혁신 기술을 D램 공정에 접목시켜 다양한 응용처에서 실제 성능과 에너지 효율이 대폭 향상됐음을 강조하며 PIM기술이 빅데이터 시대의 새로운 메모리 패러다임이 될 것임을 강조했다.

김남승 삼성전자 메모리사업부 D램 개발실 전무는"HBM-PIM은 업계 최초의 인공지능 분야 맞춤형 메모리 솔루션으로, 고객사들의 AI 가속기에 탑재돼 평가받으며 상업적 성공 가능성을 보였다"며 "향후 표준화 과정을 거쳐 차세대 슈퍼컴퓨터 및 인공지능용 HBM3, 온-디바이스 AI용 모바일 메모리 및 데이터센터용 D램 모듈로 확장할 예정이다"라고 말했다.

삼성전자는 2022년 상반기 내 다양한 고객사들의 AI 가속기를 위한 PIM 기술 플랫폼의 표준화와 에코 시스템 구축을 완료해 인공지능 메모리 시장을 확대할 예정이다.

이광영 기자 gwang0e@chosunbiz.com