리사 수 AMD CEO “AI 가속기 시장 2023년 38조 규모”…연간 50% 성장

2023-06-16     샌프란시스코=권용만 기자

"인공지능은 이제 기술적 ‘메가트렌드’가 됐다."

리사 수 AMD CEO는 13일(현지시각) 미국 캘리포니아주 샌프란시스코에서 열린 ‘AMD 데이터 센터 & AI 테크놀로지 프리미어’ 행사에서 이와 같이 강조하며, 전략적으로도 인공지능은 대단히 중요한 존재라고 말했다.

리사 수 AMD CEO / 샌프란시스코=권용만 기자
리사 수 CEO는 데이터센터를 위한 AI 가속기 시장 규모가 2023년 300억 달러(한화 약 38조4000억원) 수준에서 2027년에는 1500억 달러(한화 약 192조원) 수준까지, 연간 50% 이상의 평균 성장률을 보이며 빠르게 커질 것으로 기대했다.

이렇게 빠르게 성장할 것으로 기대되는 AI 관련 시장에서 AMD는 데이터센터에서 엔드포인트까지 훈련과 추론 모두에 걸쳐 광범위한 솔루션을 갖추고 있다고 밝혔다.

AMD는 인공지능 시대의 기반이 될 ‘에픽’ 프로세서부터 시작해 HPC와 인공지능 워크로드 가속을 위한 ‘인스팅트(Instinct)’ 가속기, 데이터센터와 엣지의 추론을 위한 ‘알베오(Alveo)’ 가속기, 임베디드 추론을 위한 ‘버설(Versal)’, 그리고 ‘라이젠 AI’ 가속기가 포함된 라이젠 7040 시리즈 모바일 프로세서에 이르기까지 다양한 포트폴리오를 갖추고 있다.

이들 포트폴리오는 데이터센터의 초거대 AI 모델의 훈련에서부터 엣지와 PC는 물론, 자동차와 제조업, 의료와 항공우주 산업군에 이르기까지 다양한 영역에 걸친 추론 애플리케이션에도 다양한 형태로 활용되고 있다.

AMD의 ‘에픽’ 프로세서는 데이터센터의 모든 워크로드를 위한 범용 제품으로 AI 환경에서도 핵심 구성 요소다. 특히 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하는 최신 4세대 에픽 프로세서는 AVX-512와 VNNI(Vector Neural Network Instruction)를 지원해 AI 관련 워크로드에서 향상된 성능을 제공한다.

HPC와 데이터센터의 훈련과 추론을 위한 ‘인스팅트(Instinct)’ 가속기는 GPU의 아키텍처를 기반으로 하지만, GPU를 위한 픽셀 파이프라인을 제거하는 등 ‘연산 특화’ 설계를 갖췄다. 이에 데이터센터용 가속기를 위한 아키텍처는 그래픽용 GPU 아키텍처와 구분되는 ‘CDNA’ 아키텍처로 표현된다.

이와 함께, AMD는 자일링스(Xilinx)를 인수하면서 AI 시장을 위한 광범위한 포트폴리오를 확보한 바 있다. 특히 ‘버설(Versal)’ 어댑티브 시스템 온 칩(SoC) 시리즈 제품은 기본적인 활용을 위한 Arm 기반 프로세서와 사용자가 직접 프로그래밍 가능한 ‘어댑터블 엔진’, 그리고 고성능 AI 엔진과 DSP 엔진 등을 하나의 SoC로 구현해, 제조업에서부터 자동차, 의료 등에 이르기까지 다양한 산업군에서 센서 기반의 고속 추론 환경을 효과적으로 구현할 수 있다.

데이터센터와 엣지의 추론을 위한 AMD의 ‘알베오(Alveo)’ 가속기 또한 예전 자일링스의 FPGA(field-programmable gate array) 기술을 기반으로 하고 있다. 이에 사용자가 필요에 따라 특정 워크로드를 위한 가속기를 직접 구현, 활용할 수 있다. 자일링스의 기술은 최신 라이젠 7040 모바일 프로세서에 장착된 ‘라이젠 AI’ 엔진에도 활용되는데, ‘라이젠 AI’ 엔진은 고정 기능 형태로 구현된 AI 가속 엔진이다.

리사 수 CEO는 "AMD는 지속적으로 데이터센터 AI 관련 시장에 적극적으로 투자해 왔다"며 투자의 성과로 슈퍼컴퓨터 톱 500 리스트에서 최상위권에 위치한 ‘프론티어(Frontier)’, 루미(Lumi) 등의 슈퍼컴퓨터가 AMD의 솔루션을 기반으로 구축된 점을 꼽았다. 국내에서도 KT가 한국어 기반 초거대언어모델(LLM) 구현을 위해 AMD의 솔루션을 활용하고 있다고 언급했다.

샌프란시스코=권용만 기자 yongman.kwon@chosunbiz.com