[心得] 我做了一個幾何語義模型引擎(PipeOwl)

作者: galaxy4552 (無聞)   2026-02-19 20:35:11
最近把之前做的 pipowl(minimal SBERT)重構了一下
變成一個比較乾淨的幾何語義引擎,叫做 PipeOwl
老實說也不是什麼很大的模型
比較像是我自己在研究語義結構時拆出來的一層
作者: DrTech (竹科管理處網軍研發人員)   2026-02-20 01:11:00
早期在沒有Bert的時代,就有一堆類似工作。word2vec時代,都有許多變形了。只在特定垂直領域,訓練短語級別,如果只是計算量比較低,可以做語意計算,看不出有什麼特別新的東西。不使用 transformer或BERT,做短語embedding,其實早期大家都玩得蠻多了。看了一下,基底是用BGE 做詞彙embedding,將預先計算的結果重複使用。就是用空間換時間啊。說不用S-Bert太牽強啦,還不是有用。最後benchmark只比時間,太取巧了吧,只比時間。你用儲存空間換時間,當然時間上會硬贏阿。
作者: galaxy4552 (無聞)   2026-02-20 05:15:00
確實我是從 S-BERT/BGE 的 embedding 出發做升級我也還在思考怎麼驗證 因為這是時間導向設計的沒錯
作者: USD5566 (美金五千五百六十六)   2026-02-20 11:13:00
唉 好不容易有人分享個實在點的專案 鐵o伯又在硬聊了有夠尬
作者: sarsman (DeNT15T♠)   2026-02-22 07:32:00
Benchmark 挑有利的講是常識吧

Links booklink

Contact Us: admin [ a t ] ucptt.com