<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      【論文筆記】UNet

      【深度學習】總目錄

        語義分割的U-Net網絡是2015年誕生的模型,它幾乎是當前segmentation項目中應用最廣的模型。Unet能從更少的訓練圖像中進行學習,當它在少于40張圖的生物醫學數據集上訓練時,IOU值仍能達到92%。Unet網絡非常簡單,前半部分作用是特征提取,后半部分是上采樣。在一些文獻中也把這樣的結構叫做編碼器-解碼器結構。由于此網絡整體結構類似于大寫的英文字母U,故得名U-net。

      論文鏈接: https://arxiv.org/pdf/1505.04597v1.pdf

      github:  https://github.com/milesial/Pytorch-UNet

      1 Motivation

      生物醫學圖像處理面臨的問題

      • 經典卷積網絡大部分都是針對圖像分類任務的,但是在一些特定場景,如醫療圖像處理領域,應是pixel-wise像素級的處理,輸入輸出均是圖像,即圖像分割。
      • 生物醫學任務中沒有很多標注的數據集

      為了解決這兩個問題,Ciresan用滑窗法來預測patch的類別(patch指像素周圍的局部區域)。 該算法有兩個主要問題:(1)由于每個patch都需要訓練導致這個算法很慢,且patch之間有很多重復。(2)定位準確率和上下文聯系之間需要平衡,patch越大需要pooling越多準確率越低,patch越小則不具備上下文聯系。

      2 U-Net網絡

        作者以FCN全卷積神經網絡為基礎設計了Unet,其中包含兩條串聯的路徑:contracting path用來提取圖像特征,捕捉context,將圖像壓縮為由特征組成的feature maps;expanding path用來精準定位,將提取的特征解碼為與原始圖像尺寸一樣的分割后的預測圖像。

        FCN相比,U-Net的第一個特點是完全對稱,也就是左邊和右邊是很類似的,而FCN的decoder相對簡單,只用了一個deconvolution的操作,之后并沒有跟上卷積結構。第二個區別就是skip connection,FCN用的是加操作(sum),U-Net用的是疊操作(concat)。最重要的是編碼和解碼(encoder-decoder)的思路,編碼和解碼常用于壓縮圖像和去噪聲,后來這個思路被用在了圖像分割上,非常簡潔好用。

      • 網絡左邊一側作者稱之為contracting path,右邊一側為expanding path。
      • 藍色箭頭為卷積層,卷積層的stride=1,padding=0,因此卷積后特征層的寬高會減2。卷積層后接ReLU激活函數,沒有BN層(BN由Google于2015年提出)。
      • 池化層stride=2,池化后寬高減半,通道數不變。池化層之后的卷積層將通道數翻倍。
      • 綠色的up-conv是轉置卷積,將特征層的寬高×2,通道數減半。
      • 灰色copy and crop是先對左邊的特征層進行中心裁剪(保留中心特征),再與右邊path對應的特征層進行通道數上的concat。
      • 最后的1×1的卷積沒有ReLU,輸出通道數為類別數。

      Overlap-tile

        可以發現Unet論文中輸入的圖像是572×572,但是輸出圖像大小為388×388。也就是說推理上圖黃色部分,需要藍色區域內的圖像數據作為輸入。當黃色區域位于邊緣時,就會產生邊緣數據缺失的情況(上圖右邊藍框中的空白部分)。我們可以在預處理中,對輸入圖像進行padding,通過padding擴大輸入圖像的尺寸,使得最后輸出的結果正好是原始圖像的尺寸,同時輸入圖像塊(黃框)的邊界也獲得了上下文信息從而提高預測的精度,本文用的是mirror padding。我們自己搭建網絡的時候,輸入輸出往往是一樣大小的,因此不需要考慮這個問題。

      3 訓練

      3.1 數據增強

      網絡需要大量標注訓練樣本,生物醫學任務中沒有數千個標注的數據集,所以需要對數據進行數據擴張。作者采用了彈性變形的圖像增廣,以此讓網絡學習更穩定的圖像特征。因為數據集是細胞組織的圖像,細胞組織的邊界每時每刻都會發生不規則的畸變,所以這種彈性變形的增廣是非常有效的。論文筆記:圖像數據增強之彈性形變(Elastic Distortions)

      3.2 損失函數的權重

      細胞組織圖像的一大特點是,多個同類的細胞會緊緊貼合在一起,其中只有細胞壁或膜組織分割。因此,作者在計算損失的過程中,給兩個細胞的邊緣部分及細胞間的背景部分增加了損失的權重,以此讓網絡更加注重這類重合的邊緣信息。

       如上圖所示,圖(a)為原始圖像,圖(b)為人工標注的實例分割ground truth,圖(c)為mask,圖(d)為每個像素的損失權重weight map。首先用形態學操作獲得邊界,再用下面的公式計算weight map

      其中,wc是為了類別平衡,d1是該像素到最近細胞邊界的距離,d2是到第二近的細胞邊界的距離。在作者實驗中設置w0=10,σ≈5pixels.

      3.3 其他

      • 優化器:SGD + momentum(0.99)
      • batch:為了最大限度的使用GPU顯存,比起輸入一個大的batch size,更傾向于大量輸入tiles,因此實驗batch size為1。
      • 損失函數:pixel-wise softmax + cross_entropy
      • 初始化高斯分布權重:在具有許多卷積層和通過網絡的不同路徑的深度網絡中,權重的良好初始化非常重要。 否則,網絡的某些部分可能會進行過多的激活,而其他部分則永遠不會起作用。 理想情況下,應調整初始權重,以使網絡中的每個特征圖都具有大約單位方差。作者用的高斯分布的權重。

       

      參考

      1. 精讀論文U-Net

      2. 論文筆記:圖像數據增強之彈性形變(Elastic Distortions)

      3. 研習U-Net

       

      posted @ 2023-02-26 19:14  灣仔碼農  閱讀(2849)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 成人免费无码大片A毛片抽搐色欲| 国内精品久久人妻无码妲| 亚洲一区二区三区久久受| 久久精品免视看国产成人| 国产精品无码专区| 无码国内精品久久人妻蜜桃| 最新精品国偷自产在线美女足| 性做久久久久久久久| 亚洲的天堂在线中文字幕| 成人伊人青草久久综合网| 图片区偷拍区小说区五月 | 成人无码区在线观看| 国产AV无码专区亚洲AV紧身裤| 另类图片亚洲人妻中文无码| 性欧美老人牲交xxxxx视频| 日韩av一区二区精品不卡| www插插插无码免费视频网站 | 国产熟女激情一区二区三区| 亚洲欧美在线观看品| 四虎成人在线观看免费| 国产精品va在线观看无码| 亚洲一本二区偷拍精品| 精品熟女少妇免费久久| 风韵丰满妇啪啪区老老熟女杏吧| 性欧美欧美巨大69| 中文人妻av高清一区二区| 国产成人精品午夜2022| 国产免费毛卡片| 婷婷六月天在线| 免费人成在线观看品爱网| 无码人妻精品一区二区三区蜜桃| 在线观看中文字幕国产码| 最新精品国偷自产在线美女足| av在线中文字幕不卡电影网| 男人扒开添女人下部免费视频| 亚洲区一区二区三区视频| 国产亚洲精品久久yy50| 人妻加勒比系列无码专区| 无套后入极品美女少妇| 日本三级成本人网站| 九九热精品在线免费视频|