<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      深度學習基礎課: “判斷性別”Demo需求分析和初步設計(下1)

      大家好~我開設了“深度學習基礎班”的線上課程,帶領同學從0開始學習全連接和卷積神經網絡,進行數學推導,并且實現可以運行的Demo程序

      線上課程資料:
      本節課錄像回放
      加QQ群,獲得ppt等資料,與群主交流討論:106047770

      本系列文章為線上課程的復盤,每上完一節課就會同步發布對應的文章

      本文為第二節課:“判斷性別”Demo需求分析和初步設計(下1)的復盤文章

      本課程系列文章可進入索引查看:
      深度學習基礎課系列文章索引

      回顧相關課程內容

      • 第二節課:“判斷性別”Demo需求分析和初步設計(中)
        • 什么是神經網絡 ?
          image
        • 為什么引入神經網絡?
        • 前向傳播算法包括哪些步驟?

      主問題:什么是損失函數

      為什么引入損失函數?

      • 雖然神經網絡的未知量的數量比起神經元來說更多,但如果推理的樣本數量比神經網絡的未知量的數量更多時,該怎么辦?
        • 繼續增加神經網絡中的權重、偏移數量(如增加層、增加每層的神經元)?
          答:不能,因為:
          這會增加計算成本;
          樣本數量可以任意多,但無法無限地增加神經網絡中的權重、偏移數量
          所以應該保持神經網絡中的權重、偏移數量不變
      • 在訓練后仍然會得到一組權重、偏移,但在推理階段對于每個樣本推理的輸出值仍然等于真實值嗎?
        答:不等于
      • 我們希望的結果是什么?
        答:每個樣本推理的輸出值盡量接近真實值
      • 因此,在訓練時需要得到一組合適的權重、偏移,使得每個樣本推理的輸出值盡量接近真實值
      • 那么,如何具體判斷得到的一組權重、偏移是合適的呢?
        答:需要引入損失函數??,用來在訓練階段度量在推理階段的輸出值和真實值的誤差大小

      什么是損失函數

      • 損失函數的表達式是什么?
        • 值是什么?
          答:誤差
        • 自變量、常量分別是什么?
          答:輸出是自變量,真實值是常量
        • 表達式是什么?
          答:??=??(??輸出)
      • 有了損失函數,如何具體判斷得到的一組權重、偏移是合適的呢?
        • 希望得到損失函數的最大值還是最小值?
          答:最小值
        • 此時的自變量(輸出)就是合適的的值
        • 輸出跟權重、偏移是什么關系?
          答:image
          根據上面的公式可知是函數映射關系,其中前者是函數的值,后者是函數的自變量
          • 輸入x是自變量還是常量?為什么?
            答:輸入x是常量。
            因為損失函數用于在訓練階段確定合適的權重和偏移,而此時輸入x是已知的(如為100個樣本數據)
        • 損失函數的表達式更新為:??=??(??,??)
        • 所以如何具體判斷得到的一組權重、偏移是合適的呢?
          答:求出損失函數的最小值,此時作為自變量的權重、偏移就是合適的

      主問題:什么是隨機梯度下降

      • 如何用數值分析的方法求一個函數的最小值點?
        答:image
        首先,我們隨便選擇一個點開始,比如上圖的??0。接下來,每次迭代修改??為??1,??2,??3......經過數次迭代后最終達到函數最小值點。
        你可能要問了,為啥每次修改??,都能往函數最小值那個方向前進呢?這里的奧秘在于,我們每次都是向函數??=??(??) 的梯度的相反方向來修改??。
        什么是梯度呢?梯度是一個向量,它指向函數值上升最快的方向。顯然,梯度的反方向當然就是函數值下降最快的方向了。

      • 求出來的是極小值點還是最小值點?
        答:極小值

      • 如何求最小值點?
        答:再取多組值來判斷(可升級為小批量隨機梯度下降)

      • 所以,求一個函數的極小值點的算法(梯度下降算法)總結成公式是什么?
        答:image

      • 求損失函數的極小值點的梯度下降算法總結成公式是什么?
        答:image

      posted @ 2022-08-30 12:17  楊元超  閱讀(81)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 亚洲av首页在线| 日韩精品一区二区亚洲专区| 久久亚洲精品日本波多野结衣| 精品国精品无码自拍自在线| 久久天天躁夜夜躁狠狠躁2022| 亚洲中文字幕国产综合| 无码少妇一区二区三区免费| 国产在线自拍一区二区三区| 精品国产一区av天美传媒| 国产成人亚洲欧美二区综合| 天天看片视频免费观看| 国产愉拍精品手机| 亚洲av成人精品日韩一区| 亚洲精品天堂在线观看| 极品无码国模国产在线观看| 女人被狂躁到高潮视频免费软件| 国产一区二区三区黄色片| 99精品热在线在线观看视| 国产成人欧美日韩在线电影| 伊人激情av一区二区三区| 武装少女在线观看高清完整版免费| 三级4级全黄60分钟| 南召县| 亚洲18禁一区二区三区| 国产欧美综合在线观看第十页| 久久综合综合久久综合| 老子午夜精品888无码不卡| 强奷乱码中文字幕| 欧美人伦禁忌dvd放荡欲情| 襄樊市| 国产精品国产三级国产av剧情| 亚洲成在人线AV品善网好看| 牛牛视频一区二区三区| 国产一区二区日韩在线 | 99久久精品久久久久久婷婷| 元码人妻精品一区二区三区9| 老熟妇老熟女老女人天堂| 国精产品自偷自偷ym使用方法| 在线天堂最新版资源| 干老熟女干老穴干老女人| 日日猛噜噜狠狠扒开双腿小说 |