<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      歡迎來到洪衛的博客

      人生三從境界:昨夜西風凋碧樹,獨上高樓,望盡天涯路。 衣帶漸寬終不悔,為伊消得人憔悴。 眾里尋他千百度,驀然回首,那人卻在燈火闌珊處。
      擴大
      縮小

      Day3 《機器學習》第三章學習筆記

        這一章也是本書基本理論的一章,我對這章后面有些公式看的比較模糊,這一會章涉及線性代數和概率論基礎知識,講了幾種經典的線性模型,回歸,分類(二分類和多分類)任務。

      3.1 基本形式

             給定由d個屬性描述的示例 x =(x1;x2;… ;xd),其中xi是x在第i個屬性上的取值,線性模型(linear model)試圖學得一個通過屬性的線性組合來進行預測的函數,即:

      f(x) = w1x1 + w2x2 + … + wdxd + b

      一般用向量形式寫成:

      f(x) = wTx + b

      其中x =(x1;x2;… ;xd),w和d學得之后,模型就得以確定。

             線性模型,形式簡單、易于建模,蘊含著機器學習中一些重要的基本思想,許多功能更為強大的非線性模型(nonlinear model)可在線性模型的基礎上通過引入層級結構或高維映射而得,此外,由于w直觀表達了各屬性在預測中的重要性,因此線性模型有很好的可解釋性(comprehensibility)。例如在西瓜問題中學得“f好瓜(x) = 0.2*x色澤 + 0.5*x根蒂 + 0.3*x敲聲 + 1”。

       

      3.2 線性回歸

             給定數據集 D = {(x1, y1), (x2, y2), … , (xm, ym)},其中xi = (xi1;xi2;… ;xid),yi ∈ R。“線性回歸(linear regression)”試圖學得一個線性模型盡可能地預測實值輸出標記。

      線性回歸試圖學得

       

      我們要去確定w和b,在2.3節介紹過,均方誤差(2.2)是回歸任務中最常用的性能度量,因此我們可試圖讓均方誤差最小化,即:

       

      w*, b* 表示w和b的解。

             均方誤差,有非常好的幾何意義,對應了常用的歐幾里得距離或簡稱“歐氏距離(Euclidean method)”,在線性回歸中,最小二乘法就是試圖找到一條直線,使所有樣本到直線上的歐式距離之和最小

             求解w和b使最小化的過程,叫做線性回歸模型的最小二乘參數估計(parameter estimate)”,然后E(w,  b)分別對w和b求導,得到:

       

      然后令上面兩個式子為零,求得w和b最優解的閉式(closed-form)解:  

       

      其中 為x的均值。

             更一般的,數據集D,樣本由d個屬性描述,此時我們試圖學得:

       

      這稱為“多元線性回歸(multivariate linear regression)”(這部分涉及公式教繁,線性代數知識具體推導書上)

             我們希望線性模型的預測值逼近真實標記y時,就得到了線性回歸模型,為便于觀察,寫作:

       

      我們要讓輸出標記y在指數尺度上變化,可做變化:

       

      這就是“對數線性回歸(log-linear regression)”,它實際上是在試圖讓逼近y,下圖很明了:

       

      更一般的,考慮單調可微函數g(*),令:

       

      這樣得到的模型稱為“廣義線性模型(generalized linear model)”,其中函數g(*),稱為“聯系函數(link function)”。顯然,對數線性回歸是廣義線性模型在g(*) = ln(*)時的特例。

       

      3.3 對數線性回歸

             考慮二分類任務,其輸出標記y∈{0, 1},而線性回歸模型產生的預測值 是實值,于是,我們需將實值轉換為0/1值,最理想是“單位階躍函數(unit-step function)”

       

      即若預測值z大于零就判為正例,小于零就判為反例,預測值為臨界值零則可任意判別,如下圖:

       

      對數幾率函數(logistic function)是這樣一個常用的替代函數:

       

      將對數幾率函數作為g-(*)帶入,得:

       

      整理一下:

       

      若將y視為樣本x作為正例的可能性,則1-y是其反例可能性,兩者比值:

       

      稱為“幾率(odds)”,反映了樣本x作為正例的相對可能性,然后對幾率取對數得“對數幾率(log odds,也稱logit)”:

       

      由此看出,實際上面在用線性回歸模型的預測結果去逼近真實標記的對數幾率,因此,其對應的模型稱為“對數幾率回歸(logistic regression,也稱logit regression)”。要注意的是,雖然它的名字是“回歸”,但實際上確實一種分類學習方法。

       

      3.4 線性判別分析

             線性判別分析(Linear Discriminant Analysis,簡稱LDA)是一種經典的線性學習方法,在二分類問題上最早由[Fisher, 1936]提出,所以也叫做“Fisher判別分析”。

             LDA的思想非常樸素:給定訓練樣例集,設法將樣例投影到一條直線上,使得同類樣例的投影點盡可能接近、異類樣例的投影點盡可能遠離,下面這個圖就一目了然:

       

      后續推導過程在書上。

       

      3.5 多分類學習

             現實中常見遇到多分類任務。有些二分類學習方法可直接推廣到多分類。但多數情況下,要基于一些基本策略,利用二分類學習器來解決多分類問題。

             不失一般性,考慮N個類別C1, C2, … , CN,多分類學習的基本思路是“拆解法”,即將多分類任務拆分為若干個二分類任務求解。最經典的拆分策略有三種:“一對一(One vs. One,簡稱OvO)”、“一對余(One vs. Rest,簡稱OvR)”和“多對多(Many vs. Many,簡稱MvM)”。

       

      3.6 類別不平衡問題

       

      (閱讀后續章節,待續)

      posted on 2018-05-06 17:29  洪衛  閱讀(733)  評論(0)    收藏  舉報

      導航

      Copyright?2018 洪衛
      主站蜘蛛池模板: 国产超碰人人做人人爰| 九九九国产精品成人免费视频| 日本精品不卡一二三区| 天堂在线www天堂中文在线| 熟女人妻aⅴ一区二区三区电影| 国产免费性感美女被插视频| 国内精品伊人久久久影视| 国产一区二区av天堂热| 国产精品毛片av999999| 亚洲v欧美v日韩v国产v| 狠狠综合久久久久综| 国内精品久久人妻无码不卡| 精品国产一区二区在线视| 日韩精品人妻av一区二区三区| 国产精品人成视频免费播放| 精品人妻免费看一区二区三区| 色吊丝二区三区中文写幕| 丰满少妇内射一区| 国产成人av电影在线观看第一页| 欧美巨大极度另类| 最新国产精品好看的精品| 欧美和黑人xxxx猛交视频| 国产成人av大片大片| 亚洲精品美女久久久久9999| 国产白丝jk捆绑束缚调教视频| 国产精品熟女一区二区三区| 成人亚洲av免费在线| 国产精品欧美福利久久| 久久a级片| 丝袜人妖av在线一区二区| 午夜亚洲国产理论片二级港台二级| 国产麻豆剧传媒精品国产av | 最新国产AV最新国产在钱| 国厂精品114福利电影免费| 亚洲欧美日韩综合一区在线| 饥渴的熟妇张开腿呻吟视频| 亚洲欧洲日产国码无码久久99| √天堂中文www官网在线| 九九热精品免费视频| 精品中文人妻在线不卡| 资中县|