摘要:
小技巧 drop out 基本原理 drop out是訓練神經網絡的一種技巧,最先在Alexnet中使用。其具體操作為:在神經網絡的訓練階段,以一定的概率讓隱層神經元無效,即輸出為0。下一輪迭代中,重復上述操作。 從結果上看,其達到了正則的效果, 減少了網絡的參數,使得網絡更好訓練 相當于同時訓練了 閱讀全文
摘要:
pytorch 常見錯誤 RuntimeError: a leaf Variable that requires grad is being used in an in-place operation. 如下程序會抱上述錯誤 x=torch.randn(3,requires_grad=True) x 閱讀全文