Re: [討論] 中國推出的 MiniMax 模型還滿強的

作者: s78513221 (TERIS)   2026-02-24 18:51:21
我是業餘開發無實際專案經驗
試了一下OpenCode+OhMyOpenCode的組合方案
搭配MiniMax M2.5+GLM5組隊是相當的強悍
不輸ClaudeCode的Sonnet4.6+haiku4.5付費組合
(Opus去哪了?Pro方案用這連個作業都寫不完)
最驚喜的還是OMO善於分工規畫,自帶skill跟mcp做事
又能併發執行子任務徹底發揮免費模型的使用上限
對一些簡單的網站開發架設或做小程式都還不錯
以前這些功能只能上網爬文找類似案例小修小改
看到Anthropic自己偷人類的智慧成果蒸餾模型
既不開源權重又指控別人蒸餾它的模型,在那叫什麼
只能拜託中國多蒸些,便宜模型才能使更多開發者加入Ai開發
他們也是花API錢去蒸出來的又不是沒付錢,而且還開源
不忍譴責這些LLM佛祖們給我用上便宜10倍的Api啊!
作者: sinclaireche (s950449)   2026-02-24 20:09:00
沒用過opus或gpt 5.3 codex是真的不用比了token單價便宜 但沒告訴你的是還要多花好幾倍token換來比較差的品質過來人的血淚教訓
作者: gofigure (平行世界)   2026-02-24 20:49:00
如果你連pretrain和sft的know distill 都搞不清楚啊牆國人何必假裝到處洗文 LOL
作者: sinclaireche (s950449)   2026-02-24 21:34:00
簡單來說 其他家帳面上便宜好幾倍 但Claude跟Codex用戶還是那麼多 就說明了原因
作者: strlen (strlen)   2026-02-24 21:47:00
codex不是也有免費額度?誰要用中國垃圾蒸餾AI?Anthropic假道學令人作嘔是一回事 中國拉機AI難用另一回事
作者: jobintan (Robin Artemstein)   2026-02-25 07:36:00
DeepSeek貌似也是蒸餾ChapGPT,但就質量來說,倒是不如ChatGPT。
作者: rodion (r-kan/reminder)   2026-02-25 09:40:00
樓上質量(X) 支量(O)
作者: sinclaireche (s950449)   2026-02-25 09:42:00
我覺得你沒看到多花的token數 算一算價格就差不多了
作者: ssccg (23)   2026-02-25 11:25:00
我覺得他說的很清楚,不是沒看到,是根本沒花,做不來的直接不做是要比什麼然後專業用戶的想法應該不是缺不缺小錢,對工作有沒有幫助是把你自己當老闆,要花1萬請專業還是很多個幾百元的工讀生

Links booklink

Contact Us: admin [ a t ] ucptt.com