作者:
Su22 (裝配匠)
2025-07-06 13:16:40原文標題:AI變BI?研究機構爆DeepSeek慘況
※請勿刪減原文標題
原文連結:https://reurl.cc/qYD3YN
※網址超過一行過長請用縮網址工具
發布時間:2025/07/05 17:38
※請以原文網頁/報紙之發布時間為準
記者署名:陳麗珠
※原文無記載者得留空
原文內容:
中國AI新創DeepSeek 在今年初發布「DeepSeek-R1」大模型,打著成本低廉及宣稱性能與
OpenAI相當,一度血洗華爾街。隨後被爆出用戶個資被「送中」,遭到多國政府機構及企
業封殺。半導體研究機構SemiAnalysis最新研究指出,DeepSeek的流量和用戶已呈現殭屍
化,市佔率下滑。更慘的是傳出輝達H20晶片禁輸中,導致新一代的R2 開發難產。
《SemiAnalysis》指出,中國DeepSeek R1 發布後,震撼股市和西方AI產業界,RI發布後
,其用戶應用流量激增,市佔率也隨之大幅提升。不過,DeepSeek爆炸性成長並未跟上其
他 AI 應用的步伐,DeepSeek 的市佔率也隨之下滑。
報告稱,DeepSeek 流量的絕對值下降,數據更加嚴峻。反觀其他領先的 AI 模型供應商
在同一時間段內的用戶數量,都取得令人印象深刻的增長。
為什麼使用者要轉向其他開源供應商呢?答案在於Token(代幣)經濟學以及為模型提供
服務的 KPI 之間的權衡。Token如同是 AI 閱讀與寫作時的計數單位,用戶輸入一段文字
會被拆解成很多Token;AI輸出的回覆也會包含很多Token,AI的收費依據這些Token的總
數計算。
報告說,DeepSeek 能夠將其產品定價如此低廉的一個重要原因是,他們強制用戶等待數
秒,相比之下,其他一些提供者以相同的價格提供該服務,但回應延遲時間要短得多。報
告指,DeepSeek 專注於實現通用人工智慧(AGI),對最終用戶體驗不感興趣。
報告指出,為了將算力成本壓至極限,DeepSeek在服務品質做出妥協。官方平台的首
Token延遲(First Token Latency)動輒數秒,遠低於業界對「即時」響應的期待;與之
形成鮮明對比的是,Parasail、Friendli等第三方平台僅收取2到4美元,即可獲得高達
100 萬Token的幾乎零延遲體驗。
若與更大規模雲廠商相比,差距仍明顯。微軟Azure託管DeepSeek模型的價格約為官方2.5
倍,但首Token延遲卻足足少了25秒,CP值優勢一目了然。值得注意的是,即使以相同延
遲水平衡量價格,DeepSeek也並非最佳選擇,眾多託管商已趁機在價格戰上搶佔先機。
報告直指,在AI的世界裡,算力就是王道。美國的出口管制限縮了中國AI模型的算力。
DeepSeek只能將最少的算力用於對外推理服務,而將絕大部分算力資源保留給內部研發。
心得/評論:
難怪之前不少人說DeepSeek回應時間很慢...
之前年初時
很多人吹DeepSeek出來後就不需要那麼多的算力
但現在看來並非如此
當初吹的人都被事實打臉惹!
輝達股價近期也來到新高
※必需填寫滿30正體中文字,無意義者板規處分