인텔과 PFN(Preferred Networks Inc.)이 인텔 범용 인프라의 딥러닝 기능 향상을 위해 오픈소스 프레임워크인 '채이너(Chainer)' 개발에 협력한다 7일 밝혔다. 이번 협력으로 양사는 사물인터넷(IoT), 5G, 인공지능(AI) 등 첨단기술은 데이터 사용 촉진을 위해 공동으로 대응할 방침이다.

배리 데이비스(Barry Davi) 인텔 데이터 센터 사업 총괄 매니저가 인텔 AI 프로덕트 그룹의 오픈소스 프레임워크인 ‘채이너(Chainer)’에 대해 설명하고 있다. / 인텔 제공
배리 데이비스(Barry Davi) 인텔 데이터 센터 사업 총괄 매니저가 인텔 AI 프로덕트 그룹의 오픈소스 프레임워크인 ‘채이너(Chainer)’에 대해 설명하고 있다. / 인텔 제공
최근 트렌드를 보면 AI 기술의 진화와 딥러닝은 데이터의 가치를 재정의하는 애플리케이션의 발전속도를 가속화하고 있다. 인공지능 응용프로그램과 딥러닝 프레임워크 개발∙구현을 위해 특수 목적의 컴퓨팅 환경을 사용하는 것은 개발자 커뮤니티에게 시간과 비용, 개발 복잡성 등 다양한 문제를 야기하고 있다.

딥러닝 프레임워크 채이너를 개발한 PFN과 범용 컴퓨팅 기술 및 AI∙딥러닝 기술 제공업체인 인텔은 인공지능 개발을 보다 쉽고 경제적으로 만들기 위해 협력할 방침이다. 이번 협업으로 양사는 첨단 인공지능과 딥러닝 프레임워크를 사용하는 애플리케이션 개발과 실행을 최적화시킬 수 있는 새로운 기술 개발에 나설 계획이다.

PFN에서 개발된 파이톤 기반의 딥러닝 플랫폼인 '채이너'는 '디파인바이런(Define-By-Run)'으로 불리는 독특한 기능을 갖췄고 사용자가 쉽고 직관적으로 복잡한 신경망을 설계할 수 있도록 지원한다. 2015년 오픈 플랫폼으로 공개된 채이너는 PFN에서 개발한 파이썬(Python) 기반의 심층 학습 프레임워크로, 2015년 6월 정식 서비스가 오픈돼 현시점까지 다양한 개발자로부터 애용되고 있다.

이번에 발표된 프레임워크에는 최적화된 오픈소스 라이브러리인 인텔 MKL(Math Kernel Library) 및 MKL-DNN(Math Kernel Library Deep Neural Network)이 기본 빌딩 블록으로 사용되는 게 특징이다.

인텔은 채이너가 인텔 제온 프로세서, 인텔 제온 파이 프로세서, 인텔 아리아 10 FPGA, 인텔 너바나 기술 등이 포함된 업계에서 가장 포괄적인 인공지능 컴퓨팅 포트폴리오가 될 것이라 전망했다.

인텔 관계자는 "PFN은 인텔 아키텍처에서 채이너의 성능을 지속적으로 최적화하고, 꾸준한 업데이트와 범용 컴퓨팅, 가속기, 라이브러리 등 채이너를 최적화는데 집중하겠다"며 "인텔의 깃허브(GitHub) 저장소에서 공동 작업 결과를 공유, 인공지능∙딥러닝 시장의 성장 가속화를 위한 마케팅 활동 등에서 협업해 성과를 내도록 노력하겠다"고 말했다.