챗GPT 열풍으로 초거대 AI 시대가 열리자 반도체 기업 삼성전자와 SK하이닉스가 반색하고 나섰다. 고성능 메모리 반도체 분야 시장을 주도하는 두 기업은 대규모 신규 수요를 기대할 수 있다. 고도화된 AI 서비스가 확대될수록 메모리 수요도 늘어나 얼어붙은 메모리 반도체 시장이 되살아날 것이라는 기대감이 크다.

AI 서비스가 확대될수록 고성능 메모리 반도체 수요도 늘어나 삼성전자와 SK하이닉스가 반사이익을 누릴 것이란 전망이 나온다. / 이미지투데이이
AI 서비스가 확대될수록 고성능 메모리 반도체 수요도 늘어나 삼성전자와 SK하이닉스가 반사이익을 누릴 것이란 전망이 나온다. / 이미지투데이이
14일 반도체 업계에 따르면, 챗GPT는 대규모 데이터를 학습하기 위해 1만개가 넘는 엔비디아의 GPU(그래픽처리장치)를 활용한다. 각 GPU에는 HBM(고대역폭 메모리) 등 고성능 D램이 대거 탑재된다. AI가 학습을 잘하려면 데이터 처리와 저장 기능이 중요하며, 이 역할은 HBM이 담당한다. HBM은 D램 여러 개를 수직으로 연결해 기존 D램보다 데이터 처리 속도를 대폭 끌어올린 제품이다.

반도체 업계는 초거대 AI 시장이 커질수록 국내 기업이 수혜를 입을 것으로 전망한다. AI가 고도화될수록 더 많은 GPU가 필요하고, 이에 따라 HBM 수요도 늘어나 선순환 구조를 예상할 수 있다. 현재 전 세계에서 HBM을 생산하는 곳은 삼성전자와 SK하이닉스 밖에 없다.

챗GPT에 활용되는 엔비디아의 GPU에는 SK하이닉스의 HBM 제품이 탑재된 것으로 알려졌다. 엔비디아의 'A100' GPU에 SK하이닉스의 3세대 HBM(HBM2E) 제품이 적용됐다는 설명이다.

SK하이닉스는 HBM 시장에서 기술 우위를 확보하고 있다. 2013년 세계 최초로 미국 AMD와 함께 HBM을 개발 및 양산한 데 이어 1세대(HBM), 2세대(HBM2), 3세대(HBM2E), 4세대(HBM3) 제품을 꾸준히 선보였다. SK하이닉스가 2022년 6월 양산을 시작한 4세대 HBM 제품은 영화 163편을 1초에 전송할 수 있다. 초당 최대 819GB의 데이터를 보낼 수 있다.

SK하이닉스는 엔비디아의 일정에 맞춰 HBM 생산량을 늘려간다는 방침이다. 최근 출시한 엔비디아의 신제품 'H100’은 HBM3를 탑재했다.

삼성전자는 'HBM-PIM'(지능형 메모리)을 앞세워 시장을 공략하고 있다. HBM-PIM은 메모리반도체와 AI프로세서를 하나로 결합한 제품으로, 기존 GPU 가속기보다 성능이 평균 2배 정도 높고, 에너지 소모는 절반이다. GPU 업계 2위인 AMD 제품에 사용된다.

국내 AI 시장에서도 입지를 강화한다. 2022년 12월 네이버와 함께 AI 반도체 협력 TF를 꾸리고, 네이버의 AI 서비스 '하이퍼클로바'에 공급할 새로운 반도체 솔루션을 개발하고 있다. 삼성전자가 AI 반도체 하드웨어를 개발하고, 네이버가 전용 솔루션을 개발하는 방식이다.

삼성전자와 SK하이닉스는 AI 서비스 증가를 메모리 업황 반등의 기회로 보고 있다. 두 회사는 최근 실적 발표 후 열린 콘퍼런스콜에서 대화형 AI 서비스가 미래 메모리 수요에 긍정적 영향을 줄 것이라는 입장을 밝혔다. 시장 성장세도 가파르다. 시장조사업체 가트너에 따르면 2020년 220억달러(27조원) 규모였던 AI 반도체 시장 규모는 올해 553억달러(69조원) 규모로 2.5배 이상 커질 전망이다. 3년 후인 2026년에는 861억달러(약 107조원)까지 성장할 것으로 예상된다.

국내 반도체 업계 한 관계자는 "현재 생성형 AI 반도체로 GPU가 많이 쓰이는데, 여기엔 HBM 제품과 같은 고부가가치, 고효율, 프리미엄 제품이 필수적이다"라며 "국내 반도체 기업들이 이 분야에서 활약하고 있어 굉장한 호재로 보인다"고 말했다.

이어 "간접적으로도 AI 서비스가 확대될수록 DDR5나 낸드 등 서버 확충에 대한 고객사 니즈가 늘어날 것으로 보인다"고 덧붙였다.

박혜원 기자 sunone@chosunbiz.com