"인공지능(AI)의 놀라운 발전을 지속하려면 인텔 너바나 뉴럴 네트워크 프로세서(NNP) 및 모비디우스 미리어드(Movidius Myriad) 비전 프로세싱 유닛(VPU)과 같은 전용 하드웨어가 필요하다."

컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 에너지 효율적인 확장성을 제공하는 너바나 NNP-T. / 인텔 제공
컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 에너지 효율적인 확장성을 제공하는 너바나 NNP-T. / 인텔 제공
인텔이 첫 AI 전용 주문형 반도체(ASIC) 제품인 ‘너바나(Nervana) NNP’를 내놨다. 미국 샌프란시스코에서 열린 AI 서밋 2019에서 인텔은 클라우드에서 엣지까지 AI 시스템 개발 및 구현을 가속화하도록 설계된 새로운 제품 업데이트를 공개했다. 이와 함께 인텔은 엣지 미디어, 컴퓨터 비전 및 추론 응용 프로그램을 위한 차세대 인텔 모비디우스 미리어드 비전 프로세싱 유닛(VPU)도 공개했다.

이날 시연한 인텔 NNP는 트레이닝(NNP-T1000)과 추론(NNP-I1000)을 위한 제품으로, 클라우드 및 데이터센터 고객을 위한 확장성과 효율성을 지원한다.

나빈 라오 인텔 부사장 겸 인공지능 제품 그룹 총괄이 미국 샌프란시스코에서 열린 AI 서밋 2019에서 신제품을 공개하고 있다. / 인텔 제공
나빈 라오 인텔 부사장 겸 인공지능 제품 그룹 총괄이 미국 샌프란시스코에서 열린 AI 서밋 2019에서 신제품을 공개하고 있다. / 인텔 제공
나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄은 "AI의 다음 단계에서 우리는 컴퓨팅 하드웨어 및 메모리의 한계에 도달하고 있다"며 "이번에 선보인 AI 전용 하드웨어는 보다 앞선 시스템 수준의 AI를 사용하면 데이터를 정보로, 정보를 지식으로 변환하는데 큰 도움이 될 것이다"고 밝혔다.

인텔의 AI 포트폴리오는 고객이 대규모 클라우드에서 소규모 엣지 디바이스까지 모든 규모에서 AI 모델을 개발하고 구현할 수 있도록 지원한다. 새로운 인텔 너바나 NNP는 개방형 구성 요소 및 딥 러닝 프레임 워크 통합으로 개발된 완전한 소프트웨어 스택을 제공한다.

인텔 너바나 NNP-T는 컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 소규모 클러스터에서 최대 포드 슈퍼컴퓨터에 이르기까지 에너지 효율적인 확장성을 제공한다. 인텔 너바나 NNP-I는 다중 모드 추론을 실제 구현하는데 이상적이다. 두 제품 모두 바이두 및 페이스북과 같은 최첨단 AI 고객의 AI 처리 요구에 맞게 개발됐다.

차세대 인텔 모비디우스 VPU는 2020년 상반기에 출시될 예정이다. 이 제품은 이전 세대보다 10배 이상 높은 추론 성능을 제공할 것으로 예상된다. 인텔은 인텔 오픈 비노(OpenVINO) 툴킷 디스트리뷰선과 함께 엣지용 인텔 데브클라우드(DevCloud)를 발표했다. 이는 개발자들이 하드웨어를 구매하기 전에 광범위한 인텔 프로세서 기반에서 AI 솔루션을 시도해보고, 테스트하고 프로토타입화할 수 있도록 지원한다.


관련기사