Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度

2018.05.25 11:48AM
473
是Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度這篇文章的首圖
首圖

2016年8月宣布以3.5億美元收購深度學習新創團隊Nervana Systems,並且在去年10月中旬宣布推出代號Lake Crest的旗下首款神經網路處理器之後,Intel在稍早舉辦的AI DEVCON活動宣布將於2019年下半年正式推出代號Spring Crest的新款神經網路處理器,藉此推動更具效率、功耗相對更低的深度學習應用,同時結合旗下FPGA架構與XEON處理器平台打造更龐大的人工智慧運算模式。

在去年宣布推出旗下首款神經網路處理器Lake Crest時,Intel執行長Brian Krzanich表示希望能在2020年使人工智慧技術規模成長至100倍,而從稍早宣布即將在2019年下半年間推出的Spring Crest來看,Intel或許可藉由旗下處理器優勢讓人工智慧技術規模明顯擴大。

根據Intel說明,Lake Crest藉由高度計算利用率與模型併行演算形式設計,其中GEMM (矩陣乘法)運算利用率將高達96.4%,而多晶片擴展效率也高達96.2%,多晶片資訊傳輸率達2.4TB/s,延遲時間幾乎少於790ns,整體耗電更低於210W,相比以「Chip X」為稱的競爭對手產品有更低功耗與運算效率表現,而Spring Crest的學習效率更是Lake Crest的3-4倍,因此預期將能帶來更高的人工智慧運算效益。

此外,Spring Crest也支援目前主流學習框架TensorFlow的bfloat16神經網路運算格式,Intel預期將此格式擴展至XEON系列處理器,以及旗下FPGA架構相關項目,意味開發者將可藉由Intel處理器產品進行大規模的神經網路深度學習應用。

是Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度的第3張圖

是Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度的第4張圖

為了吸引更多開發者藉由旗下處理器平台資源打造大量的人工智慧技術應用,Intel也在此次AI DEVCON宣布未來將持續開放更多技術資源、開發工具,並且持續打造更好的硬體平台與FPGA彈性佈署架構,更計畫藉由與開發社群維持良好互動,藉此在人工智慧技術領域與其他廠商抗衡。

以目前來看,Intel在人工智慧、深度學習等領域擁有Nervana Systems與Movidius VPU等資源,同時本身也具備FPGA彈性佈署架構優勢,讓開發者能針對不同深度學習應用即時作動態調整,甚至必要時也能藉由指令集整合GPU在內運算資源,顯然有更大發揮空間。

不過,若是要做龐大的學習運算的話,目前看起來依然是以GPU更具優勢,甚至要作更極端的巨量運算,Google所打造的TPU則有更驚人運算效果,但缺點則在於僅支援TensorFlow學習框架,若要對應ONNX、Caffe/Casfee2等不同學習框架,甚至未來新推出的學習框架設計,則依然要配合處理器的運算模式。

因此Intel以FPGA主導的深度學習應用模式仍有其存在必要性,即便藉由GPU加速運算的情況,基礎指令集依然要透過處理器完成,這也是Intel在人工智慧技術競爭始終有發展優勢原因。

但即便Intel持續提倡FPGA所能提供彈性效益與多元應用模式,關鍵還是在於Intel在架構開放程度,以及提供開發者的設計資源是否充足,另外也取決開發者所設計的深度學習應用模式,決定是否採用FPGA架構,或是透過GPU、TPU進行大量運算加速。

是Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度的第5張圖

是Intel持續推動神經網路處理器 但能否成為市場優勢,仍取決本身開放程度的第6張圖

回應 0

熱門文章

最新消息

本日精選