憑借其業內領先的性能和強大的軟件生態系統,基于英特爾的平臺幾乎為所有HPC和機器學習工作負載提供支持。借助英特爾® Deep Learning Inference Accelerator,英特爾在2017年擴大了AI解決方案產品組合。英特爾® Deep Learning Inference Accelerator是一種基于現場可編程門陣列(FPGA)的集成軟硬件解決方案,可用于神經網絡加速。 英特爾® Deep Learning Inference Accelerator 可為圖像識別應用提供可擴展的加速解決方案,為數據中心帶來出色的吞吐量和能效,從而使用戶能夠在數分鐘內部署深度學習解決方案。 其硬件采用了專為卷積神經網絡(CNN)目標拓撲優化的英特爾® Arria® 10 FPGA插入板。其基于FPGA的架構可支持遠程更新,因此可隨著AI領域的快速創新及時更新硬件。 可通過英特爾® Distribution for Caffe* 和英特爾® Math Kernel Library for Deep Neural Networks(英特爾®MKL-DNN)等行業標準框架對英特爾® Deep Learning Inference Accelerator進行軟件編程。 英特爾® Deep Learning Inference Accelerator 將于 2017年上市。