摘要:
對于連續(xù)的優(yōu)化問題,典型的方法是梯度下降法;對于離散的優(yōu)化問題,典型的方法是爬山法/退火法。 讓我們從一道簡單的題目入手吧。 任務(wù):生成能夠欺騙文本分類模型的對抗性文本。 你需要對給定的positive、negative、neutral文本數(shù)據(jù)進(jìn)行微小擾動,以確保模型對這些擾動后的文本進(jìn)行錯誤預(yù)測。 閱讀全文
對于連續(xù)的優(yōu)化問題,典型的方法是梯度下降法;對于離散的優(yōu)化問題,典型的方法是爬山法/退火法。 讓我們從一道簡單的題目入手吧。 任務(wù):生成能夠欺騙文本分類模型的對抗性文本。 你需要對給定的positive、negative、neutral文本數(shù)據(jù)進(jìn)行微小擾動,以確保模型對這些擾動后的文本進(jìn)行錯誤預(yù)測。 閱讀全文
posted @ 2024-08-29 01:18
rainrzk
閱讀(77)
評論(0)
推薦(0)

浙公網(wǎng)安備 33010602011771號