[新聞] 聯發科傳奪 Google AI 大單

作者: jeff0025   2023-06-19 08:17:27
聯發科傳奪 Google AI 大單
2023/06/19 03:14:38
經濟日報 記者李孟珊/台北報導
Google衝刺AI,傳找聯發科(2454)合作,攜手打造最新AI伺服器晶片,並將以台積電5
奈米製程生產,力拚明年初量產,象徵聯發科正式跨足當紅的AI伺服器相關晶片領域。
對於相關消息,聯發科不回應市場傳言。消息人士透露,這次Google與聯發科的跨國合作
,由聯發科提供串行器及解串器(SerDes)方案,協助整合Google自行開發的張量處理器
(TPU),助力Google打造最新AI伺服器晶片,且性能比透過CPU或GPU為架構更強大。
https://i.imgur.com/bg9s9IV.jpg
聯發科AI能量相當豐沛,旗下各產品線都有AI功能強化。聯發科總經理陳冠州先前曾公開
表示,不論是終端或雲端的AI,如何迎接大型語言模型(LLM)的發展趨勢,都是聯發科
在思考的議題。
陳冠州認為,聯發科在AI運算技術領域投入很多,從幾年前就認為,未來的運算不只是
CPU、GPU,還會有基於AI的APU趨勢會興起,所以也在其天璣5G晶片中導入APU架構。聯發
科將於10月底推出天璣系列第三代晶片天璣9300,將具備基於LLM的AI運算技術。
業界解讀,如今Google上門找聯發科攜手開發最新AI伺服器晶片,意味聯發科在AI的實力
深獲肯定,也是聯發科跨足當紅的AI伺服器領域一大里程碑。
業界指出,Google多項服務都與AI有關,多年前投入深度學習技術後,發現運用GPU衍生
出的運算成本十分昂貴,因此Google決定自行開發深度學習專用的處理器晶片TPU,並於
2015年亮相第一代TPU處理器,部署到自家資料中心。
回顧Google當年在開發者大會首次揭露其TPU,與當時的CPU與GPU相比,其TPU能提供高出
30至100倍的每秒浮點運算性能,在整體運算效能表現有多達15到30倍的提升,甚至在效
能、功耗比上,更是獲得近30至80倍的改善,如今Google的TPU晶片已經來到第四代。
消息人士透露,聯發科自行研發的Serdes已經有多款產品量產,技術成熟,此次協助
Google打造的AI伺服器晶片將採台積電5奈米製程生產,預計今年底前送交給晶圓廠製造
(tape out),力拚明年初量產。
業界人士說明,高速SerDes是兩個獨立的設備,即發送器(串行器)和接收器(解串器)
,是雲端數據流量和分析的重要關卡,主因隨著大規模資料中心增加,這種資料中心通常
需要各種不同形式的網絡,從伺服器到機架路由器的頂端、從機架到機架,以及從各地或
全世界的資料中心進行遠距離運輸,而透過高速SerDes晶片,將可解決超高速傳輸的問題

https://reurl.cc/jDv35M
作者: darkangel119 (星星的眷族)   2023-06-19 08:51:00
現在才要做 AVGO應該拉開差距很大了吧
作者: leosthanatos (Mr.O)   2023-06-19 11:20:00
發哥不是發新聞稿嗆報紙了嗎?

Links booklink

Contact Us: admin [ a t ] ucptt.com