2019-12-12 16:00 (목)
인텔, ‘AI 서밋 2019‘에서 최신 AI 하드웨어 공개
상태바
인텔, ‘AI 서밋 2019‘에서 최신 AI 하드웨어 공개
  • 길민권 기자
  • 승인 2019.11.13 17:38
이 기사를 공유합니다

클라우드 및 데이터센터 고객 위한 확장성과 효율성 지원
나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄
나빈 라오(Naveen Rao) 인텔 부사장 겸 인공지능 제품 그룹 총괄

인텔이 미국 샌프란시스코에서 열린 ‘AI 서밋 2019’에서 클라우드에서 엣지까지 AI 시스템 개발 및 구현을 가속화하도록 설계된 새로운 제품 업데이트를 공개하고 차세대 AI 혁신을 선보였다고 밝혔다.

이 날 시연한 인텔 너바나 뉴럴 네트워크 프로세서(NNP)는 트레이닝(NNP-T1000)과 추론(NNP-I1000)을 위한 제품으로, 클라우드 및 데이터센터 고객을 위한 확장성과 효율성을 지원하는 인텔 첫 AI 전용 주문형 반도체(ASIC) 제품이다.

또한 인텔은 엣지 미디어, 컴퓨터 비전 및 추론 응용 프로그램을 위한 차세대 인텔 모비디우스 미리어드 비전 프로세싱 유닛(VPU)을 공개했다.

나빈 라오(Naveen Rao) 인텔 부사장은 “AI의 다음 단계에서 우리는 컴퓨팅 하드웨어 및 메모리의 한계에 도달하고 있다”라며 “AI의 놀라운 발전을 지속하려면 인텔 너바나 NNP 및 모비디우스 미리어드 VPU와 같은 전용 하드웨어가 필요하다. 보다 앞선 시스템 수준의 AI를 사용하면 데이터를 정보로, 정보를 지식으로 변환하는데 큰 도움이 될 것이다”라고 말했다.

현재 생산되어 고객에게 제공 중인 새로운 인텔 너바나 NNP는 시스템 수준 AI 접근 방식의 일부로, 최대한의 활용을 위해 개방형 구성 요소 및 딥 러닝 프레임 워크 통합으로 개발된 완전한 소프트웨어 스택을 제공한다.

인텔 너바나 NNP-T는 컴퓨팅, 통신, 메모리 간의 최적의 균형을 유지해 소규모 클러스터에서 최대 포드 슈퍼컴퓨터에 이르기까지 선형에 가까운, 에너지 효율적인 확장성을 제공한다. 인텔 너바나 NNP-I는 전력과 예산을 효율적으로 사용하고 유연한 폼팩터를 통해 강력한 다중 모드 추론을 실제 구현하는데 이상적이다. 두 제품 모두 바이두 및 페이스북과 같은 최첨단 AI 고객의 AI 처리 요구에 맞게 개발되었다.

미샤 스메랸스키(Misha Smelyanskiy) 페이스북 AI 시스템 공동 설계 부문 디렉터는 “인텔과 협력해 인텔 NNP-I를 기반으로 더욱 빠르고 효율적인 추론 성능을 구현하고, NNP-I에 최첨단 딥 러닝 컴파일러 Glow를 위한 지원을 확장할 수 있어 매우 기대된다”라고 말했다.

한편 2020년 상반기에 출시될 차세대 인텔 모비디우스 VPU는 특별하고 고효율적인 아키텍처 기술을 통합해 경쟁사 프로세서보다 최고 6배 우수한 전력 효율성과 이전 세대보다 10배 이상 높은 추론 성능을 제공할 것으로 예상된다.

★정보보안 대표 미디어 데일리시큐!

Tag
#인텔