Re: [閒聊] 傳Coreweave是Nvidia和Blackroc

作者: LDPC (Channel Coding)   2023-09-08 00:16:32
我有在follow coreweave 但是朝另外一個方向 Coreweave現在規劃就是死抱老黃和
微軟大腿 他提供的就是第三方租借算力 其他類似的公司有Amazon/Google/Lambda
然後Coreweave也有跟微軟簽約提供算力
老黃這陣子看得出來 他有在朝算力租借這邊佈局
在講這些玩家之前 先科普一下如果踏入AI產業 你大概會選擇三個方向其中一個
AI開發者有大概三個族群
1.Train From Scratch (大公司玩家 每年AI頂會三大會 會看到他們出現刷存在感)
代表產物:BLIP(Saleforce)/CLIP(OpenAI)/DALLE-2(OPENAI)/LLAMA(Meta)/Palm-e(Google)
2.Fine Tune/Adapter Design: 就是拿上面幾家公司開源的大模型作微調 或者增加套件
來整合下游任務 就算是如此也是吃一堆GPU運算 但比上面動輒百顆千顆GPU 小許多
3.Deployment (通常是Inference族群)
開發者就是把模型部署在終端 針對各種特別User Scenario來做優化AI模型 這塊會是
AMD將來的市場 目前市值估計是1跟2的10倍 需要的人就是做c code和模型轉變(ONNX)
Meta目前也在這佈局
在Foundation Model大放異彩後 以及開源平台後Hugging Face興起
(Hugging Face 這家如果有股票 一定要買爆他) 造成許多優秀AI相關人才
包含工程師 都想跳入2跟3的領域 來做面對B2C的AI產業
這部分都屬於Foundation Model下游任務 在早期李飛飛ImageNet時代
這些特製化面向產業的 以前還可以用GTX/RTX這類遊戲顯卡 去做測試和開發和部署
現在你大概得要有V100/A100/H100才行 但這些玩意只有大公司有
於是老黃目前看來想幹的就是 解鎖這門檻 讓全世界新創 小型公司 任何優秀人才
能加入這產業 在透過Hugging Face 你現在想做LLM 只要套用幾個現成模板
你就可以做下游特制化產物 老黃開發了一堆套件諸如AI WorkBench 就像你在用SAAS
Matlab這類軟體 搭個幾個套件 你就可以開發屬於你自己需求下游產物模型
Pytorch ENG Head也跑去開了一個Firework公司 走這條路
原本老黃是寄望雲端三大(Google/MS/Amazon)幫他推租借算力平台 但Amazon已經前後表明
他們更希望開發自己的算力平台 而Google/MS隨時都有可能會跳船 那老黃目前感覺就是
想養一個親兒子跟他們對幹又或者當替代方案...Coreweaver據傳已經要在德州蓋DGX
Cloud 做開放AI平台和算力租借整合 據理解DGX這類型Cloud就算是上面三大雲玩家也是需要重新蓋機房
無法拿以前的infra來升級 因此上面三個玩家也是需要花錢蓋廠 就某種意義 並沒有
比Coreweave來的更領先
但只要是聰明人都會注意到 這塊租借算力市場的矛盾性 大公司不會希望上面事情發生
最糟糕情況就是3這塊會各家公司分走 甚至危機到1這個Training市場
也就是老黃不想看到的 挑戰cuda權威 而老黃感覺是要去搶雲市場租借算力這事情
讓更多小資本玩家進入這市場 讓他資本做大 更依賴老黃開發工具體系 打破大公司壟斷
大模型 進而在算力租借市場開發新的賺錢項目 越多玩家 他就能賣越多鏟子
如果老黃成功打造自己的算力租借軟硬整合雲平台(雖然我不看好) 那我會去解鎖我CD帳戶繼續加碼
但我也能理解老黃 如果他不這樣幹 他沒辦法持續壟斷這領域 QQ 總之 繼續在旁邊吃瓜
看這群大佬互打
作者: herculus6502 (金麟豈是池中物)   2023-09-08 06:00:00

Links booklink

Contact Us: admin [ a t ] ucptt.com