<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      cvpr論文

      四種loss

      讓我仔細分析一下 criterion_sv.py 中的損失函數結構,來回答你的問題。

      [5 tools called]

      現在我明白了!讓我回答你的問題:

      關于 criterion_sv.py 中的損失函數結構

      根據代碼分析,這里實際上有4種不同的損失函數,而不是3種:

      1. GT Loss (基因型損失) - 4類

      • 預測內容: 4種基本基因型
        • (0,0): 純合子參考
        • (0,1): 雜合子
        • (1,1): 純合子變異
        • (1,2): 多等位基因變異

      2. AT Loss (等位基因類型損失) - 113類

      • 預測內容: 113種具體的等位基因類型組合
      • 包含:
        • SNP類型: {"A","A"}, {"A","C"}, {"A","G"}, {"A","T"}, {"C","C"}, {"C","G"}, {"C","T"}, {"G","G"}, {"G","T"}, {"T","T"}
        • Indel類型: {"A","INS"}, {"A","DEL"}, {"C","INS"}, {"C","DEL"}
        • 結構變異類型: {"INS","INS"}, {"DEL","DEL"}, {"INV","INV"}, {"DUP","DUP"}
        • 復合變異: {"INS","DEL"}, {"A","INV"}, {"DUP","INV"}

      3. ALT Loss (變異序列損失)

      • 預測內容: 具體的變異序列內容
      • 包括: alt_seq1alt_seq2 的序列重建

      4. SV Loss (結構變異損失) - 113類

      • 預測內容: 基于AT類型推斷的SV類型
      • 用途: 專門針對結構變異的分類

      回答你的具體問題:

      Q1: Indel預測的是什么?

      A: Indel預測的是等位基因類型,不是簡單的"是否是insert/delete"的二分類。具體預測:

      • 插入類型:{"A","INS"}, {"C","INS"}, {"INS","INS"}
      • 缺失類型:{"A","DEL"}, {"C","DEL"}, {"DEL","DEL"}
      • 復合類型:{"INS","DEL"}, {"A","INVDUP"}

      Q2: SNP預測的是四種簡單基因型?

      A: 不是!SNP在AT Loss中預測的是10種具體的堿基組合

      • 純合子:{"A","A"}, {"C","C"}, {"G","G"}, {"T","T"}
      • 雜合子:{"A","C"}, {"A","G"}, {"A","T"}, {"C","G"}, {"C","T"}, {"G","T"}

      Q3: 113種既包含了indel也包含了snp?

      A: 是的!113種類型包括:

      • 10種SNP類型(如上所述)
      • 24種堿基+SV組合(如{"A","INS"}, {"C","DEL"}等)
      • 79種SV+SV組合(如{"INS","INS"}, {"DEL","INV"}等)

      Q4: 所以是三種loss嗎?

      A: 實際上是4種loss

      1. GT Loss: 4類基因型
      2. AT Loss: 113類等位基因類型(包含SNP和Indel)
      3. ALT Loss: 序列重建
      4. SV Loss: 113類SV類型推斷

      這種設計允許模型同時學習:

      • 基因型的抽象表示(GT)
      • 具體的變異類型(AT)
      • 變異序列內容(ALT)
      • 結構變異特征(SV)

      merge

      好的,以下是這段話的中文翻譯:


      讓我來為你澄清 數據格式任務流程

      輸入數據是什么?

      MERGE 的主要輸入是 一張組織切片的全切片圖像(WSI) ,以及對應的空間轉錄組學(ST)基因表達數據(用于訓練)。

      訓練階段

      • 全切片圖像(WSI):
        這是一張非常大的數字病理圖像(通常是千兆像素大?。@示了用于組織學染色的組織。

      • ST “點位”:
        組織被劃分為一個網格的 “點位”(圓形或方形區域,例如,直徑 100 微米),每個點位包含:

      • 坐標(x,y)(點位中心的坐標)

      • 小圖像塊(例如,從 WSI 中提取的 224×224 像素圖像,位于每個點位的位置)

      • 基因表達向量(該點位的基因表達值列表,例如,250 維向量,表示選定基因的表達值)

      所以,對于每張 WSI 而言:

      • 輸入: 一組元組:
        (圖像塊,(x,y),基因向量)

      • 數據集: 多張 WSI,每張 WSI 包含數十到數千個點位。

      任務是什么?

      • 任務: 給定一張 WSI,預測該切片上所有點位(圖像塊)的基因表達向量。
      • 在訓練時: 圖像塊和基因表達的真實值都是已知的。
      • 在測試 / 推理時: 只提供 WSI(沒有基因表達數據)—— 模型必須在所有點位處預測基因表達。

      步驟流程

      1. 圖像塊提取

      • WSI 劃分為一組 “點位”(例如,根據 Visium 或其他 ST 技術的網格劃分)。

      • 對于每個點位:

      • 提取一個以該點位為中心的小圖像塊(例如,224×224 像素)。

      2. 圖像塊編碼

      • 使用卷積神經網絡(ResNet18)將每個圖像塊編碼為特征向量。

      3. 圖構建

      • 構建圖:

      • 節點: 每個點位(圖像塊)。
        ** 邊:* 根據空間鄰近性、特征相似性以及特殊的 “快捷” 中心邊連接節點。

      4. GNN 前向傳播

      • 使用圖神經網絡(圖注意力網絡)處理節點特征(圖像塊嵌入)。
      • GNN 為每個節點輸出一個 基因表達向量(即,預測該點位的基因表達)。

      5. 損失(僅訓練時)

      • 計算預測基因表達向量與實際基因表達向量之間的損失(均方誤差)。

      簡單示例

      假設你有一張包含 500 個點位的 WSI:

      • 輸入:

      • 500 個 224×224 RGB 圖像塊

      • 500 個(x,y)坐標

      • 500 個基因向量(用于訓練;推理時不需要)

      • 輸出(模型預測):

      • 500 個向量(每個 250 個基因),每個點位對應一個。


      視覺總結

      [WSI]
        ↓(網格劃分)
      [500 個圖像塊] + [500 個坐標]
        ↓(ResNet18)
      [500 個特征向量]
        ↓(通過空間和特征聚類構建圖)
      [500 個節點的圖]
        ↓(GNN)
      [500 個預測基因向量]
      

      總結要點:

      • 推理時的 輸入一張 WSI,從該 WSI 中提取所有點位處的圖像塊,并預測每個點位處的基因表達。
      • 輸出 是每個點位 / 圖像塊的預測基因表達譜。

      如果你希望看到如何處理一張單個的 WSI 及其點位的代碼示例,可以隨時詢問!

      特征邊 空間邊

      好呀,以下是這段話的中文翻譯:

      1. 將大圖像(WSI)劃分成許多小圖像(圖像塊 / 點位):
      • 例如,一張全切片圖像被分割成 500 個小圖像塊(每個圖像塊覆蓋組織的一部分)。
      • 每個圖像塊對應組織中的一個點位(區域),并具有其自身的(x,y)位置。
      1. 將每個小圖像塊表示為圖中的一個節點:
      • 每個圖像塊(小圖像)成為圖中的一個節點。
      1. 根據相似性或鄰近性構建邊:
      • 空間邊: 連接在組織上物理距離較近的圖像塊(相鄰點位)。
      • 特征邊: 連接外觀相似的圖像塊(即使它們相距較遠)。
      • 快捷 / 中心邊: 特殊的邊連接聚類中心,以允許快速進行長距離信息傳遞。
      1. 圖神經網絡(GNN)處理圖:
      • GNN 學習在相關的圖像塊之間共享和組合信息。
      • 每個節點輸出其圖像塊的預測基因表達向量。

      類比

      • 可以將 WSI 視作一張地圖
      • 圖像塊就像是地圖上的城市 / 城鎮
      • 圖邊就像是連接城市的道路:一些連接鄰居城市,一些連接相距較遠但相似的城市。
      • GNN 就像是一個消息傳遞系統,讓信息(信號)沿著道路傳播,以提高每個城市的預測準確性。

      [大型 WSI]
         ↓(劃分成網格)
      [圖像塊 1] [圖像塊 2] ... [圖像塊 500]
         ↓(圖中的節點)
           [節點 1]---[節點 2]
              \     /
               [節點 3]
               ...
      
      • 根據距離和相似性連接節點。

      結論:

      • 是的,你可以將其視為將一張大圖像分割成許多小圖像,然后構建一個圖來捕捉小圖像之間的關系,以用于深度學習預測。

      如果你想要一個示意圖或示例代碼片段來說明這一點,請告訴我!

      ground truth

      好的,以下是這段話的中文翻譯:

      什么是 真實值

      在情境本中,真實值 是每個點位(圖像塊)實際測量的基因表達向量。

      • 例如,每個圖像塊(小圖像)可能有一個 250 維向量,每個數字代表該位置特定基因的表達水平。
      • 這些數據來自于空間轉錄組學實驗,該實驗在組織的精確點位測量基因表達。

      每個小圖像(圖像塊 / 點位)都需要預測一個值嗎?

      • 是的:
        每個對應有真實值基因表達的圖像塊 都需要生成一個預測值。

      • 訓練過程中,模型學習為每個這樣的圖像塊預測基因表達向量,并且其預測值會與該點位的真實(實際)向量進行比較。

      • 為每個圖像塊計算損失:
        損失 = 均方誤差(預測基因向量,真實基因向量)
        (在 WSI 或數據集中的所有點位上取平均值)。

      • 并非 WSI 中的每個像素都有值 —— 只有進行了空間轉錄組學測量的點位才有值。

      • 在推理 / 測試時:
        即使對于沒有真實值數據的新 WSI(即未標記樣本),模型也可以用來預測所有圖像塊(點位)的基因表達向量。

      簡單示例

      假設你的 WSI 被劃分為 500 個點位(圖像塊):

      • 輸入:
        500 個圖像塊(位置已知)。
      • 真實值:
        500 個基因表達向量(每個圖像塊對應一個向量)。
        ** 預測:*
        模型為每個圖像塊預測一個基因表達向量。
      • 訓練:
        模型對每個圖像塊的輸出會與對應的真是向量進行比較。

      圖示

      圖像塊 1  ----> 預測基因向量 1   <--- 基因真實值向量 1
      圖像塊 2  ----> 預測基因向量 2   <--- 基因真實值向量 2
        ...
      圖像塊 500 ----> 預測基因向量 500 <--- 基因真實值向量 500
      
      • 預測值與真實值之間的差異用于訓練模型。

      總結

      • 真實值 = 每個點位 / 圖像塊的實際測量基因表達向量。
      • 每個有真實數據的點位 / 圖像塊在訓練期間都作為預測目標。
      • 模型試圖使每個圖像塊的預測值與真實值相匹配。

      如果你想要一個數據結構的示意圖或更多關于生物學方面的內容,請告訴我!

      數據的表達

      好的,以下是這段話的中文翻譯:


      是的,每個圖像塊的基因表達向量都具有真實的意義生物學!可以這樣理解:

      值的生物學意義

      • 每個圖像塊(點位)來自組織的特定區域。
      • 對于該圖像塊,空間轉錄組學數據給出了一個基因表達值向量——例如,250 個基因的活性水平。
      • 該向量中的每個值 告訴你該特定基因在那個微小組織區域中被 “表達”(用于制造 RNA,可能還有蛋白質)的程度。

      **這在生物學上意味著什么? **

      • 細胞身份:
        不同組織區域可能包含不同類型的細胞(例如,腫瘤細胞、免疫細胞、正常組織)?;虮磉_檔案可以表明存在哪些細胞類型。
      • 疾病狀態:
        某些基因在癌癥、炎癥等情況下可能更活躍(上調)。一個圖像塊如果高表達腫瘤標志物基因,可能表明是腫瘤組織。
      • 微環境:
        跨越圖像塊的基因表達模式揭示了組織的結構和功能、空間關系以及細胞如何相互作用。
      • 病理過程:
        如果某個區域高表達涉及細胞分裂的基因,則可能表明是一個增殖性(可能是癌癥)區域。高免疫基因表達可能意味著免疫細胞浸潤。

      示例

      • 圖像塊 1 高表達基因 A(已知的癌癥標志物)和低表達基因 B(免疫標志物)。

      • 解釋: 圖像塊 1 可能是腫瘤組織,幾乎沒有免疫存在。

      • 圖像塊 2 低表達基因 A,高表達基因 B。

      • 解釋: 圖像塊 2 可能是一個有大量免疫細胞的區域。

      • 圖像塊 3 兩者表達水平都適中。

      • 解釋: 圖像塊 3 可能是腫瘤和免疫區域之間的交界處。

      通過將預測的(或真實的)基因表達向量映射回切片上的位置,研究人員可以查看組織類型和疾病狀態的空間組織。


      匯總表

      圖像塊位置 示例基因 A 示例基因 B 生物學解釋
      圖像塊 1 表達 低表達 腫瘤區域
      圖像塊 2 低表達 高表達 免疫區域
      圖像塊 3 中等表達 中等表達 混合 / 過渡區域

      可視化

      • 在 WSI 上對特定基因表達進行 熱圖 可視化,可以揭示腫瘤與非腫瘤區域、免疫 “熱點” 等的布局。

      簡而言之:

      為每個圖像塊預測的值代表該組織區域的局部 “生物學狀態”——即哪些基因處于活躍狀態、可能存在哪些細胞類型以及可能正在發生哪些疾病過程。

      如果你想要更多具體的生物醫學示例或圖表,請告訴我!

      ASIGN

      以下是論文 “ASIGN:一種用于 3D 空間轉錄組學的解剖感知空間插補圖網絡” 的中文總結:


      1. 背景與動機

      • 空間轉錄組學(ST): 一種用于測量組織切片中基因表達并保留空間信息的技術。
      • 問題: 傳統的 ST 通常在 2D 組織切片上進行,而完整的 3D ST(多個相鄰切片)能提供更真實的空間圖譜,但成本高昂且工作量巨大。
      • 臨床挑戰: 實際上只能獲取少數 2D ST 切片,而全切片成像(WSI,常規組織圖像)成本較低且可實現 3D 成像。
      • 關鍵科學空白: 大多數深度學習方法僅從 2D 圖像預測基因表達,忽略了重要的 3D 解剖結構。

      2. 主要貢獻

      • 新問題設定: 3D ST 插補 —— 給定一組成像組織塊的 3D 歷史 WSIs 和一張帶 2D ST 標簽的切片,預測 3D 組織體積中所有點位的基因表達。
      • 主要技術方案: 提出 ASIGN(解剖感知空間插補圖網絡),利用圖層間圖像塊的 3D 空間關系,并將已標記層的基因表達數據傳播到未標記層。

      3. 技術細節

      a. 數據格式

      • 輸入:
        多個對齊的 WSIs(圖像切片)構成一個 3D 組織體積,其中一張 WSI 在每個點位上有空間轉錄組學(ST)測量值。
      • 輸出: 預測所有層(包括未標記層)每個點位的基因表達譜。

      b. 流程與模型架構

      1. 3D 全局配準與圖塊提取

        • 使用圖像配準工具將 2D WSI 切片對齊成 3D 堆疊。
        • 對于每個 “點位”,提取多分辨率圖像塊(點位級、區域級和全局級)。
      2. 3D 圖構建

        • 每層中的每個圖塊 / 點位是 3D 圖中的一個節點。

        • 根據以下條件構建節點間的邊:

          • 層間的空間重疊(相似的 3D 位置的點位)
          • 特征相似性(具有相似視覺特征的圖塊)
          • 層內鄰近性(同一切片中的鄰居)
        • 邊權重結合了幾何重疊和特征相似性。

      3. 多級空間注意力圖網絡(MSAGNet)

        • 使用 ResNet50 主干從圖塊中提取特征。
        • 多級特征融合: 通過交叉注意力結合點位級、區域級和全局級特征。
        • 空間感知 GAT + Transformer: 使用圖注意力網絡(GAT)和 Transformer 在 3D 圖中聚合信息,以獲得更豐富的空間上下文。
        • 回歸頭: 預測每個點位的基因表達向量。
      4. 跨層插補(CLI)塊

        • 將單一標記層的基因標簽傳播到其他層的未知點位,通過圖標簽中的傳播實現。
        • 自適應加權將模型預測值與插補值合并以生成最終輸出。
      5. 損失函數

        • 包含:
          • 預測損失:均方誤差(MSE)和皮爾遜相關系數(PCC),用于點位 / 區域 / 全局級預測。
          • 一致性損失:確保不同空間分辨率間的一致性。

      c. 數據集與評估

      使用具有多層 3D 組織樣本的公開數據集,包括 HER2 乳腺癌、ST-Data 和 DLPFC(大腦),預測表達量最高的 250 個基因。評估指標為均方誤差(MSE)、平均絕對誤差(MAE)、皮爾遜相關系數(PCC),并與 2D 和 3D 方法(ST-Net、HisToGene、BLEEP、TRIPLEX 等)進行基線比較。


      d. 實驗結果

      • ASIGN 在 2D 和 3D 設置中均優于所有基線方法,在復雜或異質性組織中表現尤為突出。
      • 3D 圖構建和跨層標簽傳播是成功的關鍵 —— 消融研究表明每個組件的重要性。
      • 魯棒性: ASIGN 對臨床相關基因(如 ERBB2、MDK)的預測在空間上更準確且在樣本間更穩定。

      4. 流程圖總結

      [3D WSIs(多個切片)]
          ↓ (配準與圖塊提?。?[點位圖塊、區域圖塊、全局圖塊(多分辨率)]
          ↓
      [3D 圖構建(節點:點位;邊:空間 + 特征相似性)]
          ↓
      [MSAGNet:多級特征融合、GAT、Transformer]
          ↓
      [跨層插補:將已知基因數據傳播到其他層]
          ↓
      [最終預測:3D 中所有點位的基因表達]
      

      5. 總結要點

      • ASIGN 使我們能夠利用有限的真實 ST 數據,以成本效益高且準確的方式對 3D 空間基因表達進行插補,充分利用了解剖結構和多尺度圖像上下文。
      • 該方法對于實際的病理學和空間組學領域極為相關,因為在這些領域中,全面的 3D 基因圖譜目前難以實現。

      如果您需要幻燈片、詳細的架構圖示或類似代碼的偽描述以用于展示,請告知我!

      ODA-GAN染色

      以下是這篇論文的中文總結:


      標題

      ODA-GAN:在弱監督學習輔助下的正交解耦對齊生成對抗網絡用于虛擬免疫組化染色


      1. 背景與動機

      • 組織學染色:

        • H&E(蘇木精 - 伊紅)是用于可視化組織 / 細胞結構的常規染色方法。
        • 免疫組化(IHC): 顯示特定生物標志物的分布,對于腫瘤診斷和亞型分類至關重要。
        • 問題: IHC 成本高、耗時長,可能需要連續切片,并且常因組織丟失、對齊問題或染色缺失而受到影響。
        • 目標: 開發 虛擬 IHC 染色——利用深度學習將 H&E 圖像數字轉換為類 IHC 圖像。
      • 先前方法的局限性:

        • 許多基于 GAN 的方法依賴于配對的、對齊的圖像(難以獲得)。
        • 無配對翻譯(如 CycleGAN/CUT)可以保留內容,但由于以下原因可能導致染色不準確和病理不一致:
          • H&E 和 IHC 領域之間不一致或沖突的映射。
          • 翻譯過程中缺乏染色特定指導。
          • 未能解耦形態和染色特征。

      2. 主要貢獻

      1. ODA-GAN 框架:

        • 一個基于 GAN 的框架,用于執行無配對的虛擬 IHC 染色,解決了上述局限性。
        • 利用正交解耦、弱監督分割和領域對齊。
      2. 正交解耦(O-MLP):

        • 圖像特征被投影到正交空間并解耦為:
          • 染色相關特征(影響 IHC 信號)。
          • 染色無關特征(形態 / 背景)。
        • 使用具有正交約束的 MLP 和可學習掩碼進行解耦。
      3. 弱監督分割:

        • 使用大型視覺基礎模型(UNI)和多實例學習(MIL)為 H&E 圖塊獲取 偽標簽(染色陽性或陰性),無需像素級注釋。
        • Grad-CAM 生成抗原陽性區域的分割掩碼,然后用于指導訓練。
      4. 雙流 PatchNCE(DPNCE)損失:

        • 標準對比PatchNCE 損失(來自 CUT)可能會推開具有相同染色的子圖塊,這是有害的。
        • DPNCE 按照染色標簽對子圖塊進行分區,并在染色相關和無關空間中應用對比學習,提高病理一致性。
      5. 多層領域對齊(MDA):

        • 橋接生成圖像和真實 IHC 圖像之間的領域差距。
        • 使用多層的最大均值差異(MMD)損失來對齊特征分布。

      3. 技術流程

      a. 數據

      • 輸入:
        • 來自 H&E(源)和 IHC(目標)全切片圖像(WSIs)的無配對圖像塊集合。
        • 每個圖塊為 1024×1024 或 256×256 像素,來自多個數據集(BCI、MISTHER2、GPC3)。

      b. 模型工作流

      1. 特征提取與分割:

        • 使用 UNI 基礎模型提取圖塊的特征向量。
        • 弱監督 MIL + MLP 對圖塊進行分類(染色陽性 / 陰性)。
        • 在 UNI 上應用 Grad-CAM 突出顯示相關區域(生成掩碼)。
      2. 生成器(編碼器 - 解碼器):

        • 編碼器接收 H&E 圖塊,將特征投影到正交空間(O-MLP)。
        • 解碼器從這些特征重建類 IHC 圖像。
      3. 損失函數:

        • 正交解耦損失:強制分離染色相關 / 無關特征。
        • 對抗損失:標準的 GAN 損失用于真實感生成。
        • DPNCE 損失:在染色相關 / 無關特征上使用分割掩碼進行雙流對比學習。
        • 領域對齊損失:基于 MMD,對齊生成和真實 IHC 圖像的深層特征。
      4. 對比學習的樣本分區:

        • 正樣本:具有相同染色標簽的子圖塊。
        • 負樣本:具有不同標簽的子圖塊。
        • 在染色相關和無關子空間中應用。

      4. 實驗結果

      • 數據集: BCI、MISTHER2(配對)、GPC3(無配對)。
      • 指標: KID、FID、LPIPS、SSIM、DABKL。
      • 結果:
        • ODA-GAN 在所有指標上均達到行業領先水平,優于 Pix2Pix、PyramidP2P、CycleGAN、CUT、StegoGAN 等方法。
        • 視覺和定量結果表明更好地保留了組織形態,并且生成的 IHC 染色模式更逼真。
        • 消融研究表明分割、DPNCE 和領域對齊模塊的重要性。

      5. 演示用圖表

      [H&E 圖塊] → [UNI 編碼器] → [偽標記(MIL + MLP)] → [Grad-CAM 掩碼]
           ↓
       [O-MLP(正交解耦)]
           ↓
       [生成器(編碼器 - 解碼器)] → [虛擬 IHC 圖塊]
           ↓            ↑
      [GAN、DPNCE、MDA 損失] ← [真實 IHC 圖塊]
      

      6. 總結要點

      ODA-GAN 是一種穩健且創新的解決方案,用于在無配對條件下進行虛擬 IHC 染色,通過以下方式實現:

      • 解耦形態和染色特征,
      • 使用弱監督分割以獲得更好的染色指導,
      • 采用改進的對比損失和領域對齊損失,
      • 從常規 H&E 切片生成更準確、更逼真的數字 IHC 圖像。

      如果您需要幻燈片就緒摘要、視覺流程或更多類似代碼的解釋,請告知我!

      sidechat

      以下是論文SlideChat: A Large Vision-Language Assistant for Whole-Slide Pathology Image Understanding 的中文總結:


      1. 背景與動機

      • 全切片圖像(WSIs): 在數字病理學中,千兆像素的病理圖像是標準,用于癌癥診斷、亞型分類、預后評估和生物標志物檢測。

      • 先前人工智能的局限性:

      • 大多數多模態大語言模型(MLLMs)只能處理小圖像塊或感興趣區域(ROI),缺乏對整個 WSI 的全局上下文理解。

      • 缺乏大型、高質量的 WSI 特定指令數據集和基準測試。

      • 目標:

      • 構建一個能夠理解和與整個 WSI 交互的視覺 - 語言助手,利用局部(圖塊)和全局(切片級)上下文回答復雜的臨床 / 病理問題。


      2. 主要貢獻

      1. SlideChat 模型:

        • 第一個可以分析完整的千兆像素 WSI 的開源視覺 - 語言助手。
        • 在多個臨床、診斷和顯微鏡任務中取得了行業領先成果。
      2. SlideInstruction 數據集:

        • 最大的 WSI 指令遵循數據集:

          • 4,181 個 WSI 字幕
          • 175,753 個視覺問答(VQA)對
          • 涵蓋 10 種癌癥類型、13 個臨床類別、3,294 名患者(來自 TCGA 和 BCNB)。
      3. SlideBench 基準測試:

        • 一個全面的 WSI 字幕和 VQA 基準測試。
        • 在顯微鏡、診斷、臨床、生物標志物分析等 20 多個任務上進行評估。
        • 數據集:SlideBench-Caption、SlideBench-VQA(TCGA)、SlideBench-VQA(BCNB)。
      4. 開源:

        • 模型權重、代碼、指令數據和基準測試均已向社區開放。

      3. 技術細節

      架構

      • 圖塊級編碼器:

      • 將 WSI 分割為 224×224 像素的圖塊(忽略背景),使用預訓練 / 凍結的圖塊編碼器(例如 CONCH)。

      • 切片級編碼器:

      • 使用 LongNet(稀疏注意力 Transformer)對整個切片的所有圖塊標記的局部和全局上下文進行建模。

      • 多模態投影器:

      • 將切片級特征映射到與大型語言模型(LLM)對齊的統一嵌入空間。

      • 大型語言模型(LLM):

      • Qwen2.5-7B-Instruct(或其他,例如 Llama3、Vicuna)。

      • 處理用戶查詢并生成文本響應。

      • 處理流程:

      1. WSI → 圖塊 → 圖塊嵌入
      2. 圖塊嵌入 → 切片編碼器(全局上下文)→ 投影器
      3. LLM 接收投影的視覺 + 文本查詢,生成響應

      訓練

      • 階段 1: 跨領域對齊(字幕,僅訓練切片級編碼器 / 投影器,LLM / 圖塊編碼器凍結)。
      • 階段 2: 視覺指令學習(VQA,全面微調)。

      數據整理

      • 指令生成:

      • 使用 GPT-4 清理病理報告并生成臨床字幕和問答對(開放式和封閉式),涵蓋顯微鏡、診斷、臨床知識、生物標志物、分期、分級等多個領域。

      • 由多個 LLM 和病理學家進一步篩選 / 驗證。


      4. 評估與結果

      • 基準測試對比: GPT-4o、Quilt-LLaVA、MedDr、LLaVA-Med、MI-Gen 等。

      • 任務: 切片級字幕、VQA(顯微鏡、診斷、臨床、生物標志物、分期等)。

      • 指標: 字幕的 BLEU、ROUGE、GPT 分數;VQA 的準確率。

      • 結果:

      • SlideChat 在 22 個任務中的 18 個任務上超越所有競爭對手。

      • 在 SlideBench-VQA(TCGA)上顯示出較大的準確率優勢(例如 + 13.47%)。


      5. 技術創新

      • 高效的千兆像素 WSI 處理:

      • 使用 LongNet 的高效稀疏注意力建模使 SlideChat 能夠處理每個切片的數千個圖塊嵌入。

      • 全局 + 局部視覺上下文:

      • 與之前的僅圖塊模型不同,SlideChat 可對整個 WSI 進行推理,提高診斷和報告準確性。

      • 開放式 VQA 和字幕:

      • 能夠回答關于組織結構、疾病狀態、治療指導、風險、預后、生物標志物等的開放和封閉式查詢。

      • 可解釋性:

      • 可視化模型為每個答案關注的圖塊,增加透明度和信任度。


      6. 總結圖示

      [千兆像素 WSI]
         ↓(分割為 224x224 圖塊)
      [圖塊編碼器 → 圖塊嵌入]
         ↓
      [切片編碼器(LongNet)]
         ↓
      [多模態投影器]
         ↓                  ↑
      [LLM (Qwen2.5-7B)] ← [用戶查詢]
         ↓
      [聊天響應:診斷、生物標志物、描述等]
      

      7. 總結要點

      SlideChat 是一個強大的、開源的大型視覺 - 語言助手,專為計算病理學設計。它結合了大規模多模態訓練、全局和局部上下文建模以及全面評估,為全切片數字病理分析設立了新的基準。


      如果您需要演示大綱、視覺圖或進一步的技術深入探討(例如特定架構、數據集詳細信息或示例),請隨時告知我!

      posted @ 2025-06-26 16:00  GraphL  閱讀(70)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 国产av无码专区亚洲aⅴ| 国产精品丝袜一区二区三区| 石嘴山市| 久久96热在精品国产高清| 国产成人啪精品午夜网站| 国产欧美另类久久久精品丝瓜| 国产一区二区日韩在线| 粉嫩国产av一区二区三区| 日韩AV片无码一区二区不卡| 噜噜综合亚洲av中文无码| 国产精品高清一区二区三区| 精品国产一区二区三区麻豆| 久久精品免视看国产成人| 亚洲第一天堂无码专区| 成av人片一区二区久久| 欧美人禽杂交狂配| 国产日女人视频在线观看| 福利一区二区在线观看| 亚洲无av码一区二区三区| av一区二区中文字幕| 白丝乳交内射一二三区| 67194熟妇人妻欧美日韩| 中文字幕亚洲男人的天堂| 亚洲一区久久蜜臀av| 常德市| 老熟妇欲乱一区二区三区| 中文字幕日韩有码国产| 久久精品99国产国产精| 久久天天躁狠狠躁夜夜躁2o2o| 中文字幕亚洲日韩无线码| 亚洲AV成人片不卡无码| 97久久精品人人做人人爽| 99久久免费只有精品国产| 国产二区三区不卡免费| 久久伊99综合婷婷久久伊| 人妻丝袜无码专区视频网站| 国产午夜亚洲精品国产成人| 激情综合网激情五月俺也想| 欧美成人精品一级在线观看| 国内视频偷拍久久伊人网| 搡老熟女老女人一区二区|