※ 引述《LDPC (Channel Coding)》之銘言:
: 最近時間比較多 發發廢文https://reurl.cc/x3GvEb
: 摘錄"我們希望中國持續使用排名第四的產品,因為他們仍然離不開美國技術",
: "中國完全有能力自己做晶片,但你要保持領先一步,這樣他們就會持續買我們的產品"
: 這意味 美國商務長已接受用次次次次級晶片 來鎖西岸自研
: (這論點很久以前就發過 參照2023 11月 1bJpKX18) 所以老黃應該會爆賺
: 針對H20架構 https://hao.cnyes.com/post/76040
: 還是老話一句 單顆快沒有太大好處 要的是整個node-to-node cluster-to-cluster
: 巨大串級 也就是nvlink+cuda h20有4TB/s串連速度 穩定cuda 這種只有老黃有
: 這點來說h20還是可以打贏910b 尤其910b坪寬速度是h20一半 這意味多顆串連時
: 910b自身算力會被頻寬限制住而下降 以及h系列都有 transformer engine 可以動態調整
頻寬有兩種
HBM的頻寬跟GPU-GPU的頻寬
如果是串聯走張量並行 最後都是會卡在GPU頻寬沒錯
H20單顆算力較低 在input token較多的時候會顯得吃力
多顆並聯確實可以改善這問題
在使用者只問一些 幫我用Python寫一個貪食蛇 這種超短的prompt
根本不需要消耗多少算力
最後都是比頻寬
如果模型大小比較小可以整個塞在H20中
那H20的速度直接屌打華為
H20其實某種程度上CP值真的算很好
只有中國買得到
中國以外的地方 請你們買我們NV貴貴的GPU喔 不提供H20超值餐
: bf16精度 然後在inference系列還是有極佳generation token效果
: 而h20 記憶體是96GB hbm3 這就意味者 cowos/hbm/tsm小隊可以回歸了
: 中國的市場訂單可以作為後來買其他股票的定錨 下一季NV財報可以用來其他廠商對答案
: 這也意味者老AI要回來了 來吧 tsm小隊集合 \@@/
我比較期待把HBM弄到個人電腦的那天