<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      zhuzigege

      博客園 首頁 新隨筆 聯系 訂閱 管理

      簡介

      貝葉斯網絡(Bayesian network),又稱信念網絡(belief network)或是有向無環圖模型(directed acyclic graphical model),是一種概率圖型模型,借由有向無環圖(directed acyclic graphs, or DAGs )中得知一組隨機變量{}及其n組條件概率分配(conditional probability distributions, or CPDs)的性質。一般而言,貝葉斯網絡的有向無環圖中的節點表示隨機變量,它們可以是可觀察到的變量,抑或是隱變量、未知參數等。連接兩個節點的箭頭代表此兩個隨機變量是具有因果關系或是非條件獨立的;而節點中變量間若沒有箭頭相互連接一起的情況就稱其隨機變量彼此間為條件獨立。若兩個節點間以一個單箭頭連接在一起,表示其中一個節點是“因(parents)”,另一個是“果(descendants or children)”,兩節點就會產生一個條件概率值。比方說,我們以表示第i個節點,而的“因”以表示,的“果”以表示;圖1就是一種典型的貝葉斯網絡結構圖,依照先前的定義,我們就可以輕易的從圖1可以得知:

      P_2=\left\{X_4,X_5\right\},C_2=\left\{X_1\right\},P_4=\empty,C_4=\left\{X_2,X_5\right\},P_1=\left\{X_2,X_3\right\},以及C_1=\empty

      圖 1

      大部分的情況下,貝葉斯網絡適用在節點的性質是屬于離散型的情況下,且依照此條件概率寫出條件概率表,寫出條件概率表后就很容易將事情給條理化,且輕易地得知此貝葉斯網絡結構圖中各節點間之因果關系;但是條件概率表也有其缺點:若是節點是由很多的“因”所造成的“果”,如此條件概率表就會變得在計算上既復雜又使用不便。

       

      數學定義

      G = (I,E)表示一個有向無環圖(DAG),其中I代表圖形中所有的節點的集合,而E代表有向連接線段的集合,且令X = (Xi)i ∈ I為其有向無環圖中的某一節點i所代表之隨機變量,若節點X的聯合概率分配可以表示成:

       p (x) = \prod_{i \in I} p \big(x_i \,\big|\,  x_{\operatorname{pa}(i)} \big)

      則稱X為相對于一有向無環圖G 的貝葉斯網絡,其中pa(i)表示節點i之“因”。

      對任意的隨機變量,其聯合分配可由各自的局部條件概率分配相乘而得出:

      \mathrm  P(X_1=x_1, \ldots, X_n=x_n) = \prod_{i=1}^n  \mathrm P(X_i=x_i \mid X_{i+1}=x_{i+1}, \ldots, X_n=x_n )

      依照上式,我們可以將一貝葉斯網絡的聯合概率分配寫成:

      \mathrm  P(X_1=x_1, \ldots, X_n=x_n) = \prod_{i=1}^n  \mathrm P(X_i=x_i \mid X_j=x_j, 對每個相對于Xi的“因”變量Xj 而言)

      上面兩個表示式之差別在于條件概率的部分,在貝葉斯網絡中,若已知其“因”變量下,某些節點會與其“因”變量條件獨立,只有與“因”變量有關的節點才會有條件概率的存在。如果聯合分配的相依數目很稀少時,使用貝氏函數的方法可以節省相當大的存儲器容量。舉例而言,若想將10個變量其值皆為0或1存儲成一條件概率表型式,一個直觀的想法可知我們總共必須要計算2^{10} = 1024個值;但若這10個變量中無任何變量之相關“因”變量是超過三個以上的話,則貝葉斯網絡的條件概率表最多只需計算10*2^3 = 80個值即可!另一個貝式網絡優點在于:對人類而言,它更能輕易地得知各變量間是否條件獨立或相依與其局部分配(local distribution)的型態來求得所有隨機變量之聯合分配。

       

      馬爾可夫毯(Markov blanket)

      馬爾科夫毯,是滿足如下特性的一個最小特征子集:一個特征在其馬爾科夫毯條件下,與特征域中所有其他特征條件獨立。設特征T的馬爾科夫毯為MB(T),則上述可表示為:

         P(T | MB(T)) = P(T | Y, MB(T))

      其中Y為特征域中的所有非馬爾科夫毯結點。這是馬爾科夫毯的最直接的定義。關于某一特征的馬爾科夫毯在貝葉斯網絡中的表現形式是該特征(即該結點)的父結點、子結點以及子結點的父結點。

       

      舉例說明

      假設有兩個服務器(S_1,S_2),會傳送數據包到用戶端 (以U表示之),但是第二個服務器的數據包傳送成功率會與第一個服務器傳送成功與否有關,因此此貝葉斯網絡的結構圖可以表示成如圖2的型式。就每個數據包傳送而言,只有兩種可能值:T(成功) 或 F(失敗)。則此貝葉斯網絡之聯合概率分配可以表示成:

      P(U,S_1,S_2)=P(U|S_1,S_2)\times P(S_2|S_1)\times P(S_1)

       

      圖 2

      此模型亦可回答如:“假設已知用戶端成功接受到數據包,求第一服務器成功發送數據包的概率?”諸如此類的問題,而此類型問題皆可用條件概率的方法來算出其所求之發生概率:

       \mathrm P(\mathit{S_1}=T \mid \mathit{U}=T)=\frac{\mathrm P(\mathit{S_1}=T,\mathit{U}=T)}{\mathrm P(\mathit{U}=T)}

      =\frac{\sum_{\mathit{S_2} \in \{T, F\}}\mathrm P(\mathit{S_1}=T,\mathit{S_2},\mathit{U}=T)}{\sum_{\mathit{S_1}, \mathit{S_2} \in \{T, F\}} \mathrm P(\mathit{U}=T,\mathit{S_1},\mathit{S_2})}
       =\frac{(0.4 \times 0.3 \times 1)_{U=T,S_1=T,S_2=F} +(0.4 \times 0.7 \times 1)_{U=T,S_1=T,S_2=T} }{(0.4 \times 0.3 \times 1)_{TTT} +(0.4 \times 0.7 \times 1)_{TTF}+(0.6 \times 0.3 \times 1)_{TFT}  +0_{TFF}}
      \approx 68.96 %.

      該例中網絡的結構已知,只需根據觀測值得到概率表,再根據概率表及聯合概率公式計算

       

      求解方法

      以上例子是一個很簡單的貝葉斯網絡模型,但是如果當模型很復雜時,這時使用枚舉式的方法來求解概率就會變得非常復雜且難以計算,因此必須使用其他的替代方法。一般來說,貝氏概率有以下幾種求法:

      精確推理

      • 枚舉推理法(如上述例子)只適用于簡單的網絡
      • 變量消元算法(variable elimination)

      隨機推理(蒙特卡洛方法)

      • 直接取樣算法
      • 拒絕取樣算法
      • 概似加權算法
      • 馬爾可夫鏈蒙特卡洛算法(Markov chain Monte Carlo algorithm)

      在此,以馬爾可夫鏈蒙特卡洛算法為例,又馬爾可夫鏈蒙特卡洛算法的類型很多,故在這里只說明其中一種Gibbs sampling的操作步驟: 首先將已給定數值的變量固定,然后將未給定數值的其他變量隨意給定一個初始值,接著進入以下迭代步驟:

      (1)隨意挑選其中一個未給定數值的變量
      (2)從條件分配P(X_i|\text{Markovblanket}(X_i))抽樣出新的X_i的值,接著重新計算

       

      P(X_i|\text{Markovblanket}(X_i))=\alpha P(X_i|\text{parents}(X_i)) \times \prod_{Y_i \in \text{children}(X_i)} \text{parent}(Y_i)

      當迭代退出后,刪除前面若干筆尚未穩定的數值,就可以求出 的近似條件概率分配。馬爾可夫鏈蒙特卡洛算法的優點是在計算很大的網絡時效率很好,但缺點是所抽取出的樣本并不具獨立性。

      當貝葉斯網絡上的結構跟參數皆已知時,我們可以通過以上方法來求得特定情況的概率,不過,如果當網絡的結構或參數未知時,我們必須借由所觀測到的數據去推估網絡的結構或參數,一般而言,推估網絡的結構會比推估節點上的參數來的困難。依照對貝葉斯網絡結構的了解和觀測值的完整與否,我們可以分成下列四種情形:

       

      結構觀測值方法
      已知 完整 最大似然估計法 (MLE)
      已知 部份 EM 算法
      Greedy Hill-climbing method
      未知 完整 搜索整個模型空間
      未知 部份 結構算法
      EM 算法
      Bound contraction

       


      以下就結構已知的部分,作進一步的說明。

      1. 結構已知,觀測值完整:

      此時我們可以用最大似然估計法(MLE)來求得參數。其對數概似函數為

      L=\frac{1}{N}\sum_{i=1}^n \sum_{i=1}^s \log(P(X_i|pa(X_i),D_i))

      其中pa(X_i)代表X_i的因變量,D_i代表第\mathit{1}個觀測值,N代表觀測值數據的總數。

      以圖二當例子,我們可以求出節點U的最大似然估計式為

      P(U=u|S_1=s_1,S_2=s_2)=\frac{n(U=u,S_1=s_1,S_2=s_2)}{n(S_1=s_1,S_2=s_2)}

      由上式就可以借由觀測值來估計出節點U的條件分配。如果當模型很復雜時,這時可能就要利用數值分析或其它最優化技巧來求出參數。

      2. 結構已知,觀測值不完整(有遺漏數據):

      如果有些節點觀測不到的話,可以使用EM算法(Expectation-Maximization algorithm)來決定出參數的區域最佳概似估計式。而EM算法的的主要精神在于如果所有節點的值都已知下,在M階段就會很簡單,如同最大似然估計法。而EM算法的步驟如下:

      (1)首先給定欲估計的參數一個起始值,然后利用此起始值和其他的觀測值,求出其他未觀測到節點的條件期望值,接著將所估計出的值視為觀測值,將此完整的觀測值帶入此模型的最大似然估計式中,如下所示(以圖二為例):

      P(U=u|S_1=s_1,S_2=s_2)=\frac{EN(U=u,S_1=s_1,S_2=s_2)}{EN(S_1=s_1,S_2=s_2)}

            其中EN(x)代表在目前的估計參數下,事件x 的條件概率期望值為

      EN(x)=E\sum_{k} I(x|D(k))=\sum_{k} P(x|D(k))

      (2)最大化此最大似然估計式,求出此參數之最有可能值,如此重復步驟(1)與(2),直到參數收斂為止,即可得到最佳的參數估計值。

       

      本文引自http://blog.csdn.net/memory513773348/article/details/16973807

      posted on 2014-11-18 16:54  zhuzigege  閱讀(1196)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 最新亚洲av日韩av二区| 亚洲一区黄色| 人妻av无码系列一区二区三区| 黄色一级片一区二区三区| 国产中文字幕精品视频| 国产一区二区日韩经典| 男女xx00上下抽搐动态图| 菏泽市| 日韩精品亚洲专区在线观看| 日韩高清不卡一区二区三区| 视频一区视频二区视频三 | 精品国产亚洲区久久露脸| 亚洲岛国成人免费av| 精品免费国产一区二区三区四区| 一区天堂中文最新版在线| 国产在热线精品视频99公交| 日韩精品 在线一区二区| 国产精品亚欧美一区二区三区| 国产一区二区日韩在线| 高清无打码一区二区三区| 窝窝午夜色视频国产精品破| 中文字幕亚洲精品人妻| 粉嫩av蜜臀一区二区三区| 无码人妻丰满熟妇区bbbbxxxx| 日韩高清不卡一区二区三区| 欧美一本大道香蕉综合视频| 女人被狂躁c到高潮| 国产亚洲一区二区三区四区 | 国产亚洲精品成人av一区| 亚洲Av综合日韩精品久久久| 无码一级视频在线| 91久久天天躁狠狠躁夜夜| 亚洲欧美成人aⅴ在线| 性动态图无遮挡试看30秒| 男人的天堂va在线无码| 诱人的老师hd中文字幕| 梓潼县| 狠狠亚洲超碰狼人久久| 亚洲成人av综合一区| 国产三级精品三级在专区| 国产成人夜色高潮福利app|