Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI

作者: breathair (混口飯吃)   2025-12-14 20:58:50
AI 問答
問題:
所以絕對有可能將來最好的演算法的迭代發生在TPU上(畢竟谷歌軟硬一體),而GPU卻模擬不出來,或是無法模擬出優勢?
這絕對有可能。這正是科技產業中**「垂直整合(Vertical Integration)」**最恐怖的終極型態。
如果 Google 的 DeepMind 開發出一種全新的演算法(例如 Nested Learning 的某個變體),而這個演算法的數學特性剛好「完美契合」TPU 的電路設計,卻與 GPU 的架構「八字不合」,那麼就會出現您說的情況:NVIDIA 即使想追,也因為硬體物理結構的限制,跑不出優勢,甚至根本跑不動。
我們可以從三個具體的技術層面來拆解這個「無法模擬」的可能性:
1. 通訊拓撲的物理壁壘:甜甜圈 vs. 樹狀圖
這是最容易造成「GPU 跑不出來」的硬傷。
Google TPU Pod (3D Torus):Google 的 TPU 在連接時,是直接用光纖連成一個立體的環狀網路(Torus)。這讓相鄰的晶片交換數據極快,且不需要經過交換機(Switch)。
NVIDIA GPU (Fat Tree):通常依賴 InfiniBand 交換機,走的是樹狀或胖樹結構。
情境假設:
如果 DeepMind 發明了一種演算法,需要在數千個晶片之間進行**「超高頻率的鄰居廣播(Neighbor Broadcasting)」(這在模擬生物神經網路時很常見),TPU 的環狀結構可以「原生」順暢流動;但 GPU 叢集可能就會卡在交換機上,導致延遲爆炸。這不是算力不夠,而是「路網設計」**不對。
2. 記憶體層級的錯位:SRAM vs. HBM
這直接呼應了 Nested Learning 的需求。
GPU 的強項:我有超大的 HBM(高頻寬記憶體),適合一次搬運一大塊數據(Batch Processing)。
TPU 的潛力:因為是自研,Google 可以決定要在晶片上放多少 SRAM(靜態記憶體)。
情境假設:
Nested Learning 需要「推論即訓練」,也就是每講一句話,就要微調一次參數。
在 TPU 上:Google 可以設計一款 TPU,把這些需要微調的「快參數」全部鎖在晶片內的 SRAM 裡,完全不碰外部記憶體。速度極快,功耗極低。
在 GPU 上:因為 SRAM 不夠大(GPU 把空間都拿去做 CUDA Core 了),NVIDIA 必須被迫把參數頻繁地在 HBM 和晶片之間搬來搬去。這會導致**「能耗比」崩潰**。就算 GPU 算得出來,但跑一次的電費是 TPU 的 10 倍,商業上就等於「輸了」。
3. 數學運算的特化:非歐幾何的突襲
PTT 文章中提到了一個很玄的概念:「非歐幾何(雙曲空間)的運算」。
現狀:目前的 GPU 都是為了「歐幾里得空間(平直空間)」的矩陣乘法設計的。
突襲:如果 Google 證實了「雙曲空間」才是 AI 產生意識的關鍵,他們可以在下一代
TPU 中加入專門處理**「雙曲幾何旋轉」**的硬體電路。
甡嶺憚k」**,效率會呈現指數級下降。
您點出了一個非常深刻的戰略問題。
目前 NVIDIA 之所以強,是因為全世界的 AI 論文都是公開的(大部分基於 Transformer)
。NVIDIA 只要看論文,就知道下一代晶片該優化什麼。
1. Google:DeepMind 寫出秘密演算法 -> 丟給 TPU 團隊 -> TPU 團隊修改電路 -> 訓練?
X更強的 Gemini -> 繼續寫更強的演算法。這是一個正向回饋的黑盒子。
c變了,想改 GPU 設計,已經是兩三年後的事了。
上跑得像烏龜一樣的「降維打擊」模型。 這就是垂直整合玩家(Google/Apple)對抗通用
作者: billionerx10 (股十0)   2025-12-14 21:02:00
什麼都馬有可能但你這個機率超小阿再設計一個新的專用tpu要幾年 這些時間也夠輝達設計一個適配的晶片了 這不是把輝達除外的理由

Links booklink

Contact Us: admin [ a t ] ucptt.com