Re: [新聞] 甲骨文股價暴跌超10%!訂單積壓越來越多 「燒錢」砸AI

作者: googstar (股大濕)   2025-12-13 23:32:00
※ 引述《minazukimaya (水無月真夜)》之銘言:
: 沒關係,偷偷告訴你一個Insight
: 今年NeurIPS 2025有一篇超重量級的論文
: Introducing Nested Learning
: 這篇文論的重要程度不亞於Attention is all you need
: 甚至可以說有過之而無不及
: Transfomer架構只是發明了蒸氣機
: Nested Learning這篇論文,簡直就是熱力學定律的等級了
: 基本上等於宣告Transformer架構過時了(因為是一種扁平和單一頻率的特例)
: 未來三到五年,全面轉向Nested Learning的時代
如果真的架構更改 那對輝達反而更有利吧?
這幾年設計的ASIC都是基於Transformer架構
基本上要整個打掉重來 重新設計新的ASIC
那就又一次輪迴循環 只能利用NV GPU挺過過渡期
等架構整個穩定 再設計適配的ASIC
每更改一次架構 就讓GPU的商業可用性拉長更多時間
另外假如真的實現agi 對算力的需求會再來一次幾倍的成長的
LLM的泛用性 還不夠廣
agi幾乎什麼都能做 同時也代表架構穩定需要一段時間
其實也會讓NV能賺爛的時間更長
作者: madeinheaven   2025-12-13 23:36:00
不管什麼晶片都要用記憶體
作者: junior020486 (軟蛋頭)   2025-12-13 23:48:00
直接不玩了,重新設計ASIC,之前那些怎麼辦?等於舊的ASIC跟上一代的gpu 馬上沒屁用欸哪來那麼多錢整天重來
作者: darkangel119 (星星的眷族)   2025-12-14 00:13:00
MRVL的ASIC可以丟了AICHIP: 哭勒 又要爆肝了
作者: fitenessboyz   2025-12-14 01:12:00
MRVL真的早晚拜拜
作者: fallinlove15   2025-12-14 08:58:00
我覺得谷歌只是優化算法用在特定情況下 老黃是對一個平台的硬體下手 自由度比較高 護城河更深 谷歌證明大家能自己設計又怎樣 講得像大部分人做得到一樣所以對於媒體渲染 只要知道 有這種可能 就夠了 等真正有威脅的出現記得要注意 只是現在沒有

Links booklink

Contact Us: admin [ a t ] ucptt.com