인공지능(AI) 산업이 시시각각 변하고 있습니다. 2022년 11월 챗GPT가 나온 후 AI 모델 개발이 가속화되고 있고 다양한 분야에 활발하게 적용되고 있습니다. 언어모델, 이미지 생성은 물론 영상 생성 모델은 점차 정교하고 더 영리해지고 있습니다. 이처럼 빠르게 변화하는 AI 세상을 주요 키워드로 살펴봅니다. [편집자주]

데이터센터 내부 / 플리커
데이터센터 내부 / 플리커

요즘 ‘AI 좀 한다’는 기업들의 최대 과제는 데이터센터일 것입니다. 좀더 정확히 말하면 ‘전력 공급이 원활한 데이터센터’입니다.

마이크로소프트, 오픈AI, 구글, 아마존, 메타, 테슬라 등이 그런 기업에 속할텐데요. 이 기업들은 최근 데이터센터 확충을 위해 총력을 기울이고 있고, 특히 데이터센터로 공급되는 전력 확보에 애를 쓰고 있습니다. 다 AI 잘하려고 그러는 것이죠.

AI는 수 많은 병렬 연산이 기본 구조입니다. 단순한 계산을 수 천억 번 수행해서 얻어지는 결과물을 우리에게 제공합니다. 이를 가능케 해주는 것은 바로 AI용 GPU(그래픽 처리장치), TPU(텐서 처리장치), NPU(신경망 처리장치) 등과 같은 AI 최적화 프로세서입니다. 특히 GPU는 엔비디아 주가를 저세상까지 끌어올려준 ‘귀인’이기도 합니다.

결국 AI용 GPU가 들어간 데이터센터가 필요한 상황이 된 것입니다. 기존 데이터센터는 범용 연산에 최적화 된 CPU(중앙처리장치)를 사용했습니다. GPU보다 전력 사용량도 적고 공간 활용도 좋습니다. 바꿔 말하면 AI 데이터센터는 더 많은 공간이 필요하고 전력도 더 많이 필요하다는 것입니다.

미국의 에너지 연구기관인 전력연구소(EPRI)에 따르면 챗GPT로 검색할 때 사용되는 전력이 구글 검색할 때보다 10배 많다고 합니다. 기존 데이터센터에 공급되는 전력량으로는 새롭게 지어지는 데이터센터를 10%밖에 못돌린다는 것입니다. 미국의 전력연구소인 EPRI는 2030년까지 데이터센터의 전력 소모량이 매년 최대 15%까지 늘어날 것이라고 예측했습니다.

마이크로소프트는 최근 미국 원자력발전 기업 컨스텔레이션과 직접구매계약을 맺고 펜실베니아주에 있는 스리마일 원전에서 앞으로 20년 동안 전력 전체를 공급받기로 했는데요. AI 데이터센터의 전력 폭식을 감당하기 위해서입니다. 이 외에도 재생에너지 기업, 핵융합 스타트업 등과 협력을 통해 전력 공급 능력 확보에 나서고 있습니다.

아마존은 올해 3월 탈렌에너지 원전과 연결된 데이터센터를 6억5000만달러(약 8700억원)에 인수했습니다. 펜실베니아주에 위치한 이 데이터센터는 최대 960MW(메가와트)의 전력을 공급할 수 있다고 합니다.

구글은 14일(현지시각) 미국 소형모듈원전(SMR) 기업 카이로스파워와 전력 공급 계약을 맺었습니다. 2030년부터 카이로스파워가 가동하게 될 6~7개의 원자로에서 총 500MW를 공급받을 수 있게 됩니다.

오픈AI CEO 샘 알트만은 최근 백악관과의 회의에서 5GW(기가와트) 규모의 데이터센터가 필요하다고 주장했습니다. 5GW는 300만 가구에 전력을 공급할 수 있는 양인데요. 블룸버그통신에 따르면 알트만은 5~7개의 데이터센터 규모의 건설을 제시했습니다.

비단 글로벌 빅테크 기업들만의 움직임은 아닐 것입니다. 이제는 AI가 국가적 사업이 된 만큼 세계 여러 국가들까지 전력 공급 확보를 위한 노력을 펼치고 있습니다. 테슬라 CEO 일론 머스크가 던진 “앞으로 전력 공급 능력이 AI 주도권을 쥘 수 있는 핵심”이라는 메시지가 전부를 설명하는 것 같습니다.

조상록 기자 jsrok@chosunbiz.com

관련기사