[情報] 英特爾Chipzilla未來計劃:AI ASIC晶片將

作者: show31729 (Joker)   2018-05-29 17:22:07
英特爾Chipzilla未來計劃:AI ASIC晶片將於2019年出貨
http://bit.ly/2sm2sVQ
英特爾(Intel)公布Chipzilla的未來計劃。英特爾2018年5月23日在舊金山召開AI開發者
大會(AIDevCon) 發布了一系列機器學習軟體工具,並暗示新晶片,其中包括其首款商用
AI ASIC NNP-L1000,將於2019年推出。
該大會由英特爾人工智慧主管Naveen Rao啟動了Chipzilla的第一個AI開發者大會。2016
年英特爾收購的深度學習初創公司Nervana及團隊,Rao是Nervana的首席執行官和共同創
始人。
Rao認為,AI被過度炒作了且排擠了目前所有可用的數據和運算。實際上,AI革命就是一
場計算革命。每個人都可以加入AI,而顯然需要的就是一堆CPU整合再一起。
英特爾的目標是AI所需的工具而不是切開CPU。相反地,解決方案將來自深度學習和更經
典的計算方法(如:隨機森林或回歸分析)的混合。而這一切都可以藉由軟體和硬體的結
合來順利完成。下面是AIDevCon討論的一些問題。
軟體方面:
MKL-DNN:代表深度神經網絡的數學內核庫。它是神經網絡中常見組件的數學程序列表,
包括矩陣乘法器、批量範數、歸一化和卷積。該庫的目的是針對英特爾CPU上部署模型進
行優化。
nGraph:提供開發人員選擇不同的AI框架,它們都有各自的優點和缺點。為使晶片變得靈
活,後端編譯器必須能夠有效地適應所有這些晶片。nGraph是一款在英特爾晶片上實現這
一功能的編譯器。開發人員可能希望在英特爾的至強處理器上訓練他們的模型,但隨後使
用英特爾的神經網絡處理器(NNP)進行推理。
BigDL類似Apache Spark,旨在使用分佈式學習在深度學習中處理更大的工作負載。應用
程序可以用Scala或Python編寫,並在Spark集群上執行。
OpenVINO是一款軟體工具包,用於部署處理“邊緣”視頻的模型,如於相機或行動電話等
物聯網裝置。開發人員可以即時進行面部辨識的圖像分類等功能。預計今年(2018)底前開
放下載。
硬體部分:
Rao強調,以前Xeons不適合AI,但現在真的改變了。認為,GPU比CPU快100倍是錯誤的。
Rao解釋GPU在深度學習方面有一個很好的開端,但受限於嚴重的內存限制。Xeon擁有更多
的內存,可以大量擴展到市場。
他談到了FPGA的加速問題,並表示英特爾正在研究一種“離散加速器進行推理”
(discrete accelerator for inference),但未分享任何細節。
同時,還有英特爾Movidius神經計算棒(Movidius Neural Compute Stick),是一個USB棒
,可以運行使用TensorFlow和Caffe編寫的模型,耗電量約為1瓦。
神經網絡處理器(Neural Network Processor )是ASIC晶片也於去年(2017)發布,包含12
個基於其Lake Crest架構的內核,內存有32GB,在未公開的精度下性能達到40 TFLOPS,
對於低延遲互連,理論帶寬小於800納秒,每秒2.4 TB的高帶寬。NNP L1000將是第一個商
用NNP模型,並將於2019年推出。它將基於新的Spring Crest架構,預計比以前的Lake
Crest模型快3~4倍。
作者: Kulo (人面桃花)   2018-05-29 18:33:00
GPU的記憶體就是個笑話
作者: DynaxYoung (戴涅克斯)   2018-05-29 19:24:00
不太懂這個領域…請問樓上怎麼會這麼說?
作者: TWL731 (蘇格拉底之夢)   2018-05-29 22:08:00
內存限制?沒翻錯嗎......
作者: jun0325 (俊)   2018-05-30 08:28:00
GPU一個SM上可以支援上萬個thred同時跑,但cache確沒辦法同時scale up每個thread分到的空間就少很多

Links booklink

Contact Us: admin [ a t ] ucptt.com