[問卦] contrastive loss與triplet loss的差別?

作者: wang19980531 (豬精男)   2021-01-18 17:38:49
深度學習representation learning目前主流有contrastive learning和triplet learnin
g,
兩種方法都是希望相近的圖representation愈接近
反之愈遠
那核心差別是什麼?
為什麼place recognition的任務比較多使用triplet loss?
有沒有卦
作者: hcwang1126 (王小胖)   2021-01-18 17:39:00
作業自己寫
作者: jeff12280 (猜不透平常心)   2021-01-18 17:39:00
deep learning
作者: cuteSquirrel (松鼠)   2021-01-18 17:40:00
抱歉 這個我不會 沒辦法幫到你
作者: yiefaung (艾克斯卡利伯)   2021-01-18 17:49:00
simclr裡面就有比較啦
作者: ace21499 (ace21499)   2021-01-18 17:53:00
要不要我幫你打電話問hinton
作者: m06800825 ( )   2021-01-18 17:54:00
因為多一個anchor就4比較屌
作者: ace21499 (ace21499)   2021-01-18 17:56:00
就2p和3p的差別
作者: ggcip0514 (汪汪)   2021-01-18 19:14:00
negative pairs 多就是屌
作者: enso (Raven Family)   2021-01-18 19:47:00
不同的參數化

Links booklink

Contact Us: admin [ a t ] ucptt.com