<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      Multi-Similarity Loss

      通用pair對加權方案

      參數是如何更新的?

      \(x_i,x_j \in R^d\),分別表示兩個樣本的特征向量,且特征向量模長為1. 定義這兩樣本相似度為這兩個特征的內積, 即\(S_{ij}=<x_i, x_j>\). 由于特征向量模長為1,因此內積便是余弦相似度。

      考慮基于pair對的損失\(\mathcal{L}\), 是由相似度矩陣\(\mathbf{S}\)和標簽\(\mathbf{y}\)所決定的.模型參數設為\(\theta\), 現在計算在t次迭代時(書寫時省略t, 知道就行),損失\(\mathcal{L}\)關于參數\(\theta\)的梯度。

      \[\frac{\partial{\mathcal{L}(\mathbf{S}, \mathbf{y})}}{\partial{\theta}} = \sum_{i,j} \frac{\partial{\mathcal{L}}}{\partial{S_{ij}}} \frac{\partial{S_{ij}}}{\partial{\theta}} \]

      從這里可以看出梯度更新量中,\(\frac{\partial{\mathcal{L}}}{\partial{S_{ij}}}\)是參數\(\theta\)無關的,只有\(\frac{\partial{S_{ij}}}{\partial{\theta}}\) 才是參數\(\theta\)相關的。

      • \(\frac{\partial{S_{ij}}}{\partial{\theta}}\) 是由模型和樣本對本身決定的。在一次迭代過程中,是由樣本本身所決定的。
      • \(\frac{\partial{\mathcal{L}}}{\partial{S_{ij}}}\) 與參數無關相當于,權重系數

      現在設想一下,如果上述權重系數都是1,那么會怎么樣? 比如相似度很高的一個正樣本與相似度很低的一個正樣本對,都對參數更新產生相當的影響。這樣合理嗎?肯定是不合理。 因此需要設計一種權重方案,使得能通盤考慮所有樣本的情況。容易的就降低權重,難得就加大權重。

      難例挖掘

      假設\(x_i\)是參考錨點

      • 負樣本對篩選依據:

      \[S_{ij}^{-} > \min \limits_{y_i=y_k} S_{ik} - m \]

      就是找到與\(x_i\)同屬同一類別樣本對中相似度最小的那個,并且添加一個負的margin。然后從與\(x_i\)類別不同的樣本中構建的負樣本對中,找到大于剛才這個值的所有負樣本對。這個集合用\(\mathcal{N_i}\)來表示。

      • 正樣本對篩選依據:

      \[S_{ij}^{+} < \max \limits_{y_i \neq y_k} S_{ik} + m \]

      就是從與\(x_i\)類別不同的樣本中構建的負樣本對中,找到相似度最大的那個,并且添加一個正向的margin。再從與\(x_i\)同屬相同類別正樣本對,篩選出相似度比剛才值小的所有正樣本對。這個集合用\(\mathcal{P_i}\)來表示。

      梯度權重如何設計?

      參考其它loss的設計,如下是一種權重設計方式。

      負樣本權重

      \[w_{ij}^{-} = \frac{e^{\beta(S_{ij}-\lambda)}}{1+\sum\limits_{k \in \mathcal N_i} e^{\beta(S_{ik}-\lambda)} } \]

      而這個權重可以通過下面函數求導得到的

      \[log(1+\sum\limits_{k \in \mathcal N_i} e^{\beta(S_{ik}-\lambda)} ) \]

      正樣本權重

      \[w_{ij}^{+} = - \frac{e^{-\alpha(S_{ij}-\lambda)}}{1+\sum\limits_{k \in \mathcal P_i} e^{-\alpha(S_{ik}-\lambda)} } \]

      而這個權重可以通過下面函數求導得到的

      \[log(1+\sum\limits_{k \in \mathcal P_i} e^{-\alpha(S_{ik}-\lambda)} ) \]

      需要注意兩點:

      • 關于指數部分,正樣本權重有負號,負樣本權重是正號。之所以如此是損失函數是求最小值,對于正樣本相似度,是希望越大越好。反映在損失函數上是要添加一個負號。而負樣本對則不需要這樣。(不管是什么損失函數, \(\frac{\partial S_{ij}}{\partial \theta}\) 是一個梯度, 該梯度是朝著\(S_{ij}\)增加的方向走, 而目前計算框架,梯度更新默認是用負梯度更新,實現目標值下降。 但是對于正樣本的相似度,我們是希望其不斷增加的,因此添加一個符號來實現。對應負樣本對則是相反,不需要添加一個符號)
      • 關于難例挖掘。選擇了難例挖掘,那么有些負樣本對或者正樣本對,就不參與梯度的優化。那么如果一些超參設置不合理,是不是可能會把一些有意義的樣本對排除,一些沒有意義或者錯誤標注的樣本,過于關注呢?

      其它問題:

      • 超參如何設置,對效果又會產生多大影響嗎?
      posted @ 2025-02-10 21:50  星辰大海,綠色星球  閱讀(139)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 亚洲成人av在线系列| 青青青青国产免费线在线观看| 亚洲人成网站18禁止| 国产精品三级黄色小视频| 日韩av熟女人妻一区二| 亚洲人成网站观看在线观看| 午夜男女爽爽影院在线| 国产午夜精品理论片久久影院| 奇米四色7777中文字幕| 18岁日韩内射颜射午夜久久成人| 亚洲午夜福利网在线观看| 深夜福利成人免费在线观看| 色欲色香天天天综合网站免费| 丁香五月亚洲综合在线国内自拍| 国产成人av免费观看| 国产高潮刺激叫喊视频| 时尚| 久久久久免费看成人影片| 久久午夜无码鲁丝片直播午夜精品| 激情亚洲一区国产精品| 成人亚洲欧美一区二区三区| 色一伊人区二区亚洲最大| 国产一区二区三区黄色片| WWW丫丫国产成人精品| 久久精品国产99精品亚洲| 亚洲精品在线少妇内射| 亚洲国产成熟视频在线多多| 日韩福利片午夜免费观着| 野花韩国高清电影| 亚洲人成网站18禁止无码| 激情综合网一区二区三区| 别揉我奶头~嗯~啊~的视频| 又大又紧又粉嫩18p少妇| 国产熟女一区二区三区四区| 中文精品无码中文字幕无码专区| 国产精品高清国产三级囯产AV| 亚洲国产精品热久久一区| 国产无遮挡猛进猛出免费软件| 国产精品户外野外| 亚洲综合一区二区国产精品| 夜爽8888视频在线观看|