[情報] AMD蘇姿豐談AI策略:與Intel、NVIDIA截然

作者: hn9480412 (ilinker)   2019-08-24 22:21:23
AMD蘇姿豐談AI策略:與Intel、NVIDIA截然不同
janice JANICE·2019-08-24
Hot Chips 31本周在美國矽谷舉辦,兩款最大的晶片發布引人注意,分別是Cerebras最大
的深度學習晶片WSE,還有賽靈思發布全球最大的FPGA。Intel發布的兩款AI晶片Nervana
NNP-T/NNP-I同樣備受關注。
不過,AMD在Hot Chips期間並沒有獲得巨大的關注,這或許是因為在當今AI大熱的情況下
,他們採用“觀望式”的AI策略。
Intel、AMD和NVIDIA如何預估AI市場?
NVIDIA預估,其數據中心和人工智慧潛在市場(TAM)到2023年將達到500億美元。這包括
HPC(高性能計算),DLT(深度學習訓練)和DLI(深度學習推理)。
Intel估計,其DLT和DLI 潛在市場在2020年將達到460億美元。
AMD尚未發布任何關於深度學習潛在市場的預測,因為它更專注於從Intel和NVIDIA獲得市
場份額。因此,也沒有看到AMD有專注於人工智慧的晶片。
不過,AMD首席執行官蘇姿豐表示,AMD正在努力成為人工智慧領域更重要的參與者。
蘇姿豐:CPU的局限性
任何計算性能的討論都始於摩爾定律,但摩爾定律正在放緩。摩爾定律指出,隨著晶片尺
寸縮小和晶體管密度增加,計算性能將每兩年翻一偣。
在AnandTech Hot Chips 31的報道指出,蘇姿豐在主題演講中解釋說,AMD通過各種方式
改善了CPU的性能,包括工藝制程、晶片面積、TDP(熱設計功耗)、電源管理、微體系結
構和編譯器。
先進工藝制程的貢獻最大,這使得CPU的性能提升了40%。增加晶片尺寸也可以帶來兩位
數性能的提升,但這不符合成本效益。
AMD通過微體系架構將EPYC Rome服務器CPU IPC(每個周期的指令)在單線程和多線程工
作負載中分別提升了23%和15%。高於行業平均5%-8%的水平。上述所有方法在兩年半內都
會使性能翻倍。
蘇姿豐:人工智慧所需的加速計算
蘇姿豐表示,一方面,摩爾定律正在放緩。另一方面,世界上最快的超級計算機的性能每
1.2年翻一倍。這意味著過去十年的解決方案將失效。
該行業目前的需求是優化系統的各個部分,使其成為人工智慧工作負載的理想選擇。她解
釋說,ASIC和FPGA的每瓦特性能最高,CPU最低,通用GPU在每瓦性能方面介於CPU和FPGA
之間。
蘇姿豐指出,每個人工智慧工作負載都有不同的計算要求。互連技術是解決方案,因為它
將不同的部分互連到同一個系統。她用以下例子解釋了這一點:
- NAMD(奈米級分子動力學)工作負載取決於GPU
- NLP(自然語言處理)工作負載在CPU、GPU、內存帶寬和連接性之間保持平衡
業界使用傳統方法提高了CPU和GPU的性能。蘇姿豐強調,業界應該通過關注互連,I/O、
內存帶寬、軟體效率和軟硬件協同優化來提高性能。
AMD的AI策略
蘇姿豐表示,AMD已採用CPU / GPU /互連策略來挖掘人工智慧和HPC的機會。
她說,AMD將在Frontier超級計算機中使用其所有技術。該公司計劃為實現超級計算機全
面優化其EYPC CPU和Radeon Instinct GPU。它將通過其Infinity Fabric總線技術進一步
增強系統性能,並通過其ROCM(Radeon Open Compute)軟體工具解鎖性能。
與Intel和NVIDIA不同,AMD沒有專用的人工智慧晶片或專用的加速器。盡管如此,蘇還指
出,“我們絕對會看到AMD在人工智慧方面是一個很重要的參與者。”
AMD正在考慮是否要建立一個專用的AI晶片,這一決定將取決於人工智慧如何發展。
蘇姿豐補充說,許多公司正在開發不同的人工智慧加速器,如ASIC、FPGA和張量(Tensor
)加速器。這些晶片將縮小到最可持續的狀態,然後AMD將決定是否構建可以廣泛應用的
加速器。
與此同時,AMD將與第三方加速器制造商合作,並通過其Infinity Fabric互連將其晶片與
自己的CPU / GPU連接。這個策略類似於其光線跟蹤策略,NVIDIA去年推出了實時光線跟
蹤,但AMD並沒有急於推出這項技術。
不過,蘇姿豐表示AMD將在生態系統完善並且該技術被廣泛採用的情況下引入光線跟蹤技
術。
鑒於AMD是一個相對較小的玩家,與擁有充足資源的大型玩家競爭,上述策略具有經濟意
義。
在已經建立的市場中分享份額可以減少因採用率低而導致產品失敗的風險,並保證最低的
回報。
AMD AI戰略與Intel和NVIDIA戰略的不同
AMD在開發AI晶片之前採用了觀望態度。他們現在做的,是利用其現有技術來滿足AI工作
負載。
Intel開發了全面的技術,包括Xeon CPU、Optane內存、Altera FPGA和互連技術。也在開
發獨立GPU Xe。
在Hot Chip 31中,Intel推出了專用於深度學習訓練和深度學習推理的Nervana AI晶片。
Intel的晶片由自己生產,雖然這使Intel能夠更好地控制其技術,但需要大量的時間和資
源。
NVIDIA的AI策略是提供通用GPU以及可用於任何AI應用程序的CUDA軟體支持。它還具有
NVLink互連技術。英偉達正與合作夥伴共同探索人工智慧新市場。雖然這種策略需要大量
研究並且有很高的失敗風險,但這些高風險也會帶來高回報。
https://news.xfastest.com/amd/68678/amd-9/
723.1415926:AI算圓周率有比較快?
作者: xxxx9999xxxx (star)   2019-08-25 00:20:00
反正膠水都能黏 看缺什麼 黏什麼
作者: electronicyi (電子益)   2019-08-25 10:24:00
樓樓上SH就水桶常客 不用跟他認真
作者: AerobladeIII (OGC空氣刀三)   2019-08-25 11:13:00
兩個跳梁小丑公然69腥腥相習喜不自禁

Links booklink

Contact Us: admin [ a t ] ucptt.com