<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      《RAPL: A Relation-Aware Prototype Learning Approach for Few-Shot Document-Level Relation Extraction》閱讀筆記

       
       
      預備知識
      1.什么是元學習(Meta Learning)?
      元學習或者叫做“學會學習”(Learning to learn),它是要“學會如何學習”,即利用以往的知識經驗來指導新任務的學習,具有學會學習的能力。由于元學習可幫助模型在少量樣本下快速學習,從元學習的使用角度看,人們也稱之為少次學習(Few-Shot Learning)。
       
      2.什么是基于度量的元學習(Metric-based meta-learning)?
      基于度量的元學習將相似性學習和元學習相結合,學習訓練過的相似任務的經驗,從而加快新任務的完成。Guo等人將注意機制與集成學習方法相結合,形成了基于度量的元學習模型。
       
      標記文檔非常少的情況下,如何識別文檔中實體之間的語義關系呢?這是少射文檔級關系提取(Few-shot document level relation extraction,F(xiàn)SDLRE)的核心問題,它對于解決實際應用中常見的數(shù)據(jù)稀缺問題具有重要意義。基于度量的元學習是FSDLRE的一種有效框架,它通過構建類原型來進行分類。然而,現(xiàn)有的方法往往難以得到反映準確關系語義的類原型,主要存在以下兩個問題:
      1. 為了構建目標關系類型的原型,它們將所有具有該關系的實體對的表示聚合在一起,但這些實體對可能同時具有其他關系,導致原型的混淆。
      2. 它們在所有任務中使用同一組通用的非上述(none-of-the-above,NOTA)原型,忽視了不同任務中目標關系類型對NOTA語義的影響。
      為了解決這些問題,本文提出了一種基于關系感知的FSDLRE原型學習方法,它能夠增強原型表示的關系語義。本文的方法通過利用關系描述和真實的NOTA實例作為指導,有效地優(yōu)化了關系原型,并生成了適應不同任務的NOTA原型。在兩個FSDLRE基準數(shù)據(jù)集的多種設置下,本文的方法都顯著優(yōu)于最先進的方法,平均提升了2.61%的F1值。
       
      1 Introduction
      文檔級關系抽取(DocRE)的定義:識別文檔中每對實體之間的關系。
       
      DocRE面臨的問題:數(shù)據(jù)稀缺,數(shù)據(jù)標注費時費力,并且許多特定領域缺乏帶注釋的文檔。
       
      FSDLRE的定義:在標記文檔非常少的情況下,識別文檔中實體之間的語義關系。
       
      Popovic和F?rber等人(2022)提出一個基于度量的元學習框架,通過訓練一組抽樣的FSDLRE任務,學習了一個度量空間。在這個空間里,它能夠根據(jù)實體對到不同關系類型的原型表示的距離,進行分類。這樣,該方法就具備了FSDLRE的通用知識,可以快速適應新的關系類型和新的任務。
       
      圖1展示了一個FSDLRE任務的例子,這是一個1-Doc的設置,即只給出了一個帶有標注關系實例的支持文檔,以及三個目標關系類型:Place of Birth、Work Location、Place of Death。任務的目標是預測查詢文檔中預先給定的實體對之間的所有目標關系類型的實例,例如(Grace Taylor, Place of Birth, Brisbane)。
      現(xiàn)有的FSDLRE的兩個問題:
      1. 一個實體對在一個文檔中可能有多個關系,如果用支持集中的實體對表示來聚合生成關系原型,那么原型就會混雜了其他無關的關系信息,導致度量空間中的關系難以區(qū)分,如圖2(a)所示。
      2. 由于大部分查詢實體對并不涉及任何目標關系,因此 NOTA也被當作一個類別。考慮到不同任務的目標關系類型有所差異,如果只是用一組可學習的向量作為 NOTA 原型,并且在所有任務中通用,這種“一刀切”的策略可能會使 NOTA 原型偏離理想的 NOTA 語義,從而導致分類的混淆。如圖 2(a) 所示,一組通用的 NOTA 原型在任務 1 中看起來還可以,但是在任務 2 中就不太合適。
      為了解決FSDLRE中的兩個問題,本文提出了一種新穎的關系感知原型學習方法(Relation-Aware Prototype Learning method,RAPL)。首先,對于支持文檔中存在關系的每一對實體,利用關系描述中的固有關系語義作為指導,為每一個表達的關系生成一個實例級別的表示,如圖2(b)所示。關系原型是通過聚合所有支持關系實例的表示來構建的,從而更好地關注與關系相關的信息。基于實例級別的支持嵌入,本文提出了一種關系加權對比學習方法來進一步優(yōu)化原型。通過將關系間的相似性納入對比目標,可以更好地區(qū)分語義相近的關系的原型。此外,本文設計了一種任務特定的NOTA原型生成策略。對于每一個任務,自適應地選擇支持的NOTA實例,并將它們融合到一組可學習的基礎NOTA原型中,生成任務特定的NOTA原型,從而更有效地捕捉每個任務中的NOTA語義。
       
      2 Problem Formulation
      FSDLRE是指在的設定下,從少量的文檔中抽取出實體之間的關系。每個FSDLRE任務(task,也稱為一個episode)包含篇支持文檔和一篇查詢文檔,并且每篇文檔中提到的實體都進行了預注釋。對于每篇支持文檔,還給出了一個三元組集合,其中包含了文檔中所有有效的關系三元組。這里分別是關系實例的頭實體和尾實體,而是一種關系類型,是本任務要抽取的關系類型集合。支持文檔的標注是完備的,也就是說,任何沒有對應關系類型的實體對都被視為NOTA。在給定這些輸入的情況下,F(xiàn)SDLRE任務的目標是預測查詢文檔中的三元組集合,它包含了中所有屬于中關系類型的有效三元組。
       
      本文的方法基于典型的元學習框架。在訓練階段,從一個訓練文檔語料庫中采樣出支持文檔和查詢文檔,構成一系列的訓練任務。每個訓練任務的集合是的一個子集,是元訓練階段的關系類型集合。模型的目的是從這些訓練任務中學習通用的知識,以便能夠更好地適應新的任務。
       
      在測試階段,模型在一個由測試文檔語料庫中采樣出的測試任務組上進行評估,是互斥的。每個測試任務的集合是的一個子集,是元測試階段的關系類型集合,它和也是互斥的。
       
      3 Methodology
      3.1 Document and Entity Encoding
      本文使用預訓練的語言模型(Devlin等人,2019)作為文檔編碼器,對每個支持文檔或查詢文檔進行上下文相關的編碼。
       
      對于任意文檔,首先在實體提及的首尾位置插入特殊標記“?”,以便識別實體的邊界。然后將文檔送入編碼器,得到標記的上下文嵌入和交叉標記注意力
      其中中標記的個數(shù),是編碼器的輸出維度,是編碼器最后一層的注意力頭的平均值。用實體提及前的“*”標記的嵌入作為對應的提及嵌入。對于文檔中的每個實體,它有個提及,對它們的嵌入應用logsumexp池化(Jia等人, 2019),得到實體嵌入,其中的第個提及的嵌入。
       
      3.2 Relation-Aware Relation Prototype Learning
      在給定的一個任務中,本文的目標是為每種目標關系類型獲得一個原型表示,能夠更好地捕捉相應的關系語義。為此,本文首先提出了基于實例級支持嵌入(instance-level support
      embeddings)的關系原型構建方法,使每個原型能夠更多地關注支持文檔中與關系相關的信息。然后,提出了一種實例級關系加權對比學習方法(instance-level relation weighted contrastive learning method),進一步優(yōu)化了關系原型。
       
      3.2.1 Instance-Based Prototype Construction
      給定一個支持文檔中的關系實例,首先計算一個實體對級別的重要性分布,覆蓋文檔中的所有標記,以捕捉與實體對相關的上下文 (Zhou等人,2021)
      其中,是一個實體級注意力,通過對每個實體的每個提及前的標記“?”的提及級注意力取平均得到:,對于也同樣如此,而是哈達瑪積。
      同時,計算一個關系級注意力分布,覆蓋所有的標記,以捕捉與關系相關的上下文。使用另一個預訓練的語言模型作為關系編碼器,并將關系的名稱和描述拼接成一個序列,然后將序列輸入到編碼器中。將標記的輸出嵌入作為關系嵌入
      并計算關系級注意力為:
      其中,是可學習參數(shù)。
      基于,進一步計算所有標記上的實例級注意力分布,以捕獲與實例相關的上下文。具體來說,在的第維上的值可以由下式求得:
      其中,返回中最大的元素的索引,是一個超參數(shù),是指示函數(shù)。接著對進行歸一化,以恢復注意力分布。在這里,不使用作為實例級注意力,因為對于一個實例,關系是基于實體對來表達的。直接相乘可能會錯誤地增加與實體對無關的標記的權重。相反,本文利用關系級注意力來放大與實例最相關的上下文的實體對級權重。
      然后,計算一個實例上下文嵌入
      并將其融合到頭實體和尾實體的嵌入中,得到具有實例感知的實體表示
      其中,為可學習參數(shù)。的實例表示通過連接頭和尾實體表示獲得,表示為
      最后,將支持文檔中關系的所有實例集合記為,通過對中關系實例的表示取平均值,計算關系原型:
       
      3.2.2 Contrastive-Based Prototype Refining
      通過將關系原型的構建轉化為實例級別,每個原型可以更好地關注與關系相關的支持信息。然而,由于文檔上下文的復雜性,同一關系的不同實例可能表現(xiàn)出不同的關系表達模式,使得原型難以捕捉共同的關系語義。另外,有限的支持實例也使得語義接近的關系的原型難以捕捉它們的深層語義差異。因此,本文提出了一種關系加權對比學習方法,進一步優(yōu)化關系原型。
      給定一個任務,用表示支持文檔中所有關系實例的集合,即。對于一個關系實例,定義集合,它包含了支持集中所有其他也表達了關系的實例,以及集合,它簡單地包含了支持集中所有其他的實例。然后將關系間的相似性融入到一個對比目標中,并定義關系加權對比損失為:
      其中是一個超參數(shù),表示余弦相似度。這種對比損失考慮了兩個方面:
      1. 首先,以前的方法很難與對比目標相結合,因為它們只能得到成對的支持向量。實體對的多標簽性質使得合理地定義正負對很困難。
      2. 其次,通過引入關系間的相似性,這種對比損失更加注重將語義上接近的關系的實例向量分開,從而有助于更好地區(qū)分相應的關系原型。
       
      3.3 Relation-Aware NOTA Prototype Learning
      由于大多數(shù)查詢實體對沒有任何目標關系,所以NOTA也被視為一個類別。現(xiàn)有的方法通常學習一組通用的NOTA原型,用于所有的任務,但這在某些任務中可能不是最優(yōu)的,因為NOTA的語義在不同的目標關系類型的任務中是不同的。為此,本文提出了一種任務特定的NOTA原型生成策略,以更好地捕捉每個任務中的NOTA語義。具體來說,本文首先引入一組可學習的向量 ,其中是一個超參數(shù)。與之前的工作不同,本文不直接將這組向量作為NOTA原型,而是將它們視為需要在每個任務中進一步修正的基礎NOTA原型。由于支持文檔的標注是完整的,可以得到一個支持NOTA分布,它隱含地表達了NOTA的語義。因此,可以利用支持NOTA實例來捕捉每個特定任務中的NOTA語義。對于一個支持NOTA實例,使用等式2作為實例級別的注意力,并根據(jù)等式6~8得到實例表示 。將所有的支持NOTA實例的集合記為,為每個基礎NOTA原型自適應地選擇一個NOTA實例:
      這個等式找到了一個與基礎NOTA原型最接近,而與關系原型最遠的NOTA實例。然后,將它與融合,得到最終的NOTA原型
       
      其中是一個超參數(shù)。通過這種方式,可以獲得一組特定于任務的NOTA原型,這些原型不僅包含了元學習的一般知識,而且隱含地捕獲了每個特定任務中的NOTA語義。
       
      3.4 Training Objective
      給定查詢文檔中的一個實體對,使用等式2作為實體對級別的注意力,并采用類似于等式6~8的方法得到實體對的表示。對于每個目標關系類型,計算的概率為:
      其中。然后,將查詢文檔中的所有實體對的集合記為,計算分類損失為:
      如果之間存在關系,則;否則。總的損失定義為:
      其中是一個超參數(shù)。在推理過程中,如果,就提取查詢文檔中的關系實例
       
      4 Experiments
      4.1 Benchmarks and Evaluation Metric
      使用的數(shù)據(jù)集:
      1. FREDo:包含兩種主要的任務,一種是同域任務,一種是跨域任務。對于同域任務,訓練集和測試集的文檔語料來自同一個領域。對于跨域任務,測試集的文檔語料來自不同的領域,導致訓練集和測試集之間的文本風格、文檔主題和關系類型有較大的差異。每種任務都有一個1-Doc 和一個3-Doc 的子任務,用來衡量模型的可擴展性。FREDo 使用 DocRED的訓練集作為訓練和開發(fā)的文檔語料,使用 DocRED 的開發(fā)集作為同域測試的文檔語料,使用SciERC的整個集合作為跨域測試的文檔語料。DocRED的關系類型集合被劃分為三個不相交的集合,用于FREDo的訓練 (62)、開發(fā) (16) 和同域測試 (18)。FREDo為同域評估采樣了15k個情景,為跨域評估采樣了3k個情景。
      2. ReFREDo:是FREDo的修訂版。由于FREDo使用了DocRED作為底層的文檔語料,而DocRED存在不完整的標注問題,因此FREDo構建的情景也可能存在這些標注錯誤。為了解決這個問題,本文構建了 ReFREDo 作為 FREDo 的修訂版本。在ReFREDo中,用Re-DocRED替換了訓練、開發(fā)和同域測試的文檔語料,Re-DocRED是DocRED的修訂版本,具有更完整的標注。然后沿用 FREDo的關系類型劃分,為同域評估采樣了15k個情景。跨域測試的情景與 FREDo 保持一致。還遵循 Popovic 和 F?rber (2022) 的方法,計算了 ReFREDo 中測試情景的平均類別數(shù)和每個類別的平均支持實例數(shù),如表 1 所示。
       
      Popovic 和 F?rber (2022) 一致,使用宏 F1 來評估整體性能。
       
      4.2 Baselines
      本文的方法與四種基于FREDo的基線方法進行比較:
      1. 是一個初始的基線方法,它使用預訓練的語言模型而不進行微調。
      2. 是一個基于度量的方法,它建立在最先進的有監(jiān)督的 DocRE 方法和少樣本句子級關系抽取方法的基礎上。
      3. 在推理時使用所有的支持實體對,而不是將它們的嵌入平均成一個原型,以提高在跨域任務上的性能。
      4. 在訓練時使用 NOTA 實例作為額外的 NOTA 原型,并且在推理時只使用 NOTA 實例,以進一步提高在跨域任務上的性能。
      此外,本文還評估了有監(jiān)督的 DocRE 模型,它通過在整個訓練語料上學習并在支持集上微調。在這里,選擇 KDDocRE 作為最先進的公開可用的有監(jiān)督的 DocRE 方法。為了公平的比較,遵循 Popovic and F?rber (2022) 的方法,使用 BERT-base作為本文方法的編碼器。
       
       
      4.3 Main Results
      表 2 顯示了RAPL在 FREDo 和 ReFREDo 上的主要結果。
      從實驗結果可知:
      1. RAPL 相比于基線方法,在兩個基準數(shù)據(jù)集上都取得了顯著更好的平均結果(在 FREDo 上的 F1 值為 2.50%,在 ReFREDo 上的 F1 值為 2.72%)。
      2. RAPL 在每個任務設置中都一致地超過了最好的基線方法(不同任務設置中的最好基線方法可能不同),使得它比以前的方法更具通用性。
      3. RAPL 在同域任務上相比于跨域任務有更多的提升。這進一步反映了跨域設置所帶來的更大的挑戰(zhàn)。
      4. RAPL 在 3-Doc 任務上的性能一致地高于 1-Doc 任務上的性能,而這一點并不總是能夠被最好的基線方法保證,證明了 RAPL 的更好的可擴展性。
      5. 所有方法在 ReFREDo 上的同域性能顯著高于在 FREDo 上的同域性能,而這一性能差距在跨域設置下并沒有體現(xiàn)在兩個基準數(shù)據(jù)集之間。這表明,一個更高質量的訓練集可能并不能有效地解決域適應問題。
      6. KDDocRE 的性能不令人滿意,表明有監(jiān)督的 DocRE 方法可能不能很好地適應少樣本場景。
       
      4.4 Ablation Study
      本文在ReFREDo上進行了消融實驗,以探究RAPL每個模塊的影響。具體來說,
      1. 對于“?RCL”,去掉了基于關系加權的對比學習方法。
      2. 對于“?IBPC?RCL”,進一步去掉了基于實例的關系原型構建方法,并且只用與查詢實體對相同的方式獲取每個支持實體對的對級嵌入。
      3. 對于“?IBPC?RCL+SCL”,在“?IBPC?RCL”模型中加入了一個有監(jiān)督的對比學習目標(Khosla et al., 2020; Gunel et al., 2021),其中把那些共享相同關系的實體對作為正樣本,否則作為負樣本。
      4. 對于“?TNPG”,去掉了任務特定的 NOTA 原型生成策略,并且直接把基礎的 NOTA 原型作為最終的 NOTA 原型。
      平均結果如表 3 所示。可以觀察到,與 RAPL 相比,“?RCL”和“?TNPG”模型的性能有不同程度的下降,“?IBPC?RCL”模型的性能甚至比“?RCL”還要差,這證明了每個模塊的有效性。此外,在對級上整合對比目標并沒有帶來顯著的改進,這表明了學習實例級支持嵌入的重要性。
       
      4.5 Analyses and Discussions
      Effect of Hyperparameters.
      本文研究了不同超參數(shù)對RAPL性能的影響。本文在 ReFREDo 數(shù)據(jù)集上的 3-Doc 任務中進行了實驗。如圖 4 所示,可以觀察到:
      1. 對于控制實例級注意力導出的超參數(shù),針對領域內任務的最佳值比跨領域任務的大,這可能與領域內語料中的文檔更長有關。
      2. 在對比目標中的溫度超參數(shù)(約 0.4)對于與分類目標的協(xié)同以及整體模型性能至關重要。
      3. 盲目地降低超參數(shù)以增加支持 NOTA 實例在 NOTA 原型中的權重可能會對 NOTA 原型的學習產生負面影響。
      4. 與其他超參數(shù)相比,模型對于一定范圍內的 NOTA 原型數(shù)量不是很敏感。
       
      Support Embeddings Visualization.
      為了直觀地展示RAPL的優(yōu)勢,本文從ReFREDo數(shù)據(jù)集的領域內3-Doc測試語料中選擇了三種語義相近的關系類型,并為每種關系類型采樣了十個支持實例,然后使用進行可視化 (Van der Maaten和Hinton, 2008),如圖 5 所示。除了消融實驗中的兩種模型變體,本文還嘗試了,它用有監(jiān)督的對比損失 (Khosla等人, 2020; Gunel等人, 2021) 替換了實例級的關系加權對比損失。由于一些實體對同時表達了“部分”和“成員”關系,或者“部分”和“子類”關系,本文只在圖 5(a) 中可視化了的“部分”關系。可以觀察到,由 RAPL?RCL 學習的支持實例嵌入改善了學習的支持對嵌入,證明了實例級嵌入對于關系原型構建的有效性。此外,盡管引入實例級的有監(jiān)督對比目標形成了更緊湊的聚類,但三種關系類型之間的區(qū)分度仍然不足。如圖 5(d) 所示,本文提出的關系加權對比學習方法更好地區(qū)分了三種關系類型。
       
      Performance vs. NOTA Rate of Episodes.
      本文進一步探索了任務特定的 NOTA 原型生成策略對性能提升的影響。根據(jù)每個測試樣本的 NOTA 比率,即查詢文檔中 NOTA 實體對與總實體對數(shù)的比例,將 ReFREDo 數(shù)據(jù)集的領域內 3-Doc 測試樣本劃分為不相交的子集。建立了四個子集,分別對應 NOTA 比率在 [0%,95%),[95%, 97%),[97%, 99%) 和 [99%, 100%] 區(qū)間內的情況。然后在每個子集上評估了使用或不使用任務特定的 NOTA 原型生成策略訓練的模型。實驗結果如表 4 所示。可以觀察到,任務特定的 NOTA 原型生成策略在每個子集上都帶來了改進。更重要的是,隨著 NOTA 比率的增加,性能提升也越大。這表明,任務特定的 NOTA 原型生成策略有助于捕捉 NOTA 語義,從而生成更好的 NOTA 表示,尤其是在那些涉及更多 NOTA 查詢對的測試樣本中。
       
       
      Performance vs. Number of Support Relation Instances.
      本文還分析了支持關系實例數(shù)對總體性能的影響。在 ReFREDo 基準數(shù)據(jù)集的領域內 3-Doc 任務上進行了實驗。對于每個測試樣本中的每種關系類型,計算了該樣本中該關系類型的支持實例數(shù)。這里將支持實例數(shù)劃分為 10 個類別,其中前 9 個類別對應于 1 到 9,最后一個類別對應于支持實例數(shù)大于或等于 10 的情況。然后在這些類別上評估了 RAPL 方法的性能,如圖 6 所示。可以觀察到,RAPL 的性能隨著支持關系實例數(shù)的增加而呈現(xiàn)出上升趨勢,但在某些點也出現(xiàn)了波動。這表明,所提出的方法具有一定的可擴展性,但性能可能不是完全正相關于支持關系實例數(shù)。
       
      Preliminary Exploration of LLM for FSDLRE.
      近期,大型語言模型(LLM)通過在上下文學習的方式,在許多少樣本任務上取得了令人鼓舞的結果。也有一些工作專注于利用 LLM 解決少樣本信息抽取問題。然而,大多數(shù)研究主要針對句子級任務。因此,本文使用 gpt-3.5-turbo3 進行了一個初步實驗,探索 LLM 在 FSDLRE 任務上的性能。由于輸入長度的限制,本文只在1-Doc 設置下進行實驗。本文從 ReFREDo 的領域內測試樣本中隨機選擇了 1000 個樣本,并設計了一個包含任務描述、示例和查詢的在上下文學習提示模板(詳見附錄 C)。實驗結果顯示,gpt-3.5-turbo 只達到了 12.98% 的宏 F1,甚至低于一些基線方法。雖然這個測試可能無法充分反映 LLM 的能力,但本文認為 FSDLRE 仍然是一個具有挑戰(zhàn)性的問題,即使在 LLM 的時代。
       
      5 Related Work
      Sentence-Level Relation Extraction.
      ......
       
      Document-Level Relation Extraction.
      大多數(shù)現(xiàn)有的 DocRE 研究都基于數(shù)據(jù)驅動的監(jiān)督學習場景,通常可以分為基于圖的方法和基于序列的方法。基于圖的方法通常通過圖結構來抽象文檔,并用圖神經網絡進行推理。基于序列的方法用純粹的Transformer架構來編碼長距離的上下文依賴。這兩類方法在 DocRE 任務上都取得了令人印象深刻的結果。然而,這些方法都依賴于大規(guī)模的標注文檔,這使得它們難以適應低資源的場景。
       
      Few-Shot Document-Level Relation Extraction.
      為了解決現(xiàn)實中 DocRE 場景中普遍存在的數(shù)據(jù)稀缺問題,Popovic 和 F?rber(2022)將 DocRE 任務轉化為少樣本學習任務。為了完成這個任務,他們提出了多種基于度量的模型,這些模型都是基于最先進的監(jiān)督式 DocRE 方法和少樣本句子級關系抽取方法構建的,目的是適應不同的任務設置。而對于一個有效的基于度量的 FSDLRE 方法,每個類別的原型應該準確地捕捉相應的關系語義。然而,這對于現(xiàn)有的方法來說是具有挑戰(zhàn)性的,因為他們的關系原型學習策略是粗粒度的,而且他們的“一刀切”的 NOTA 原型學習策略也不合理。在這項工作中,本文提出了一種關系感知的原型學習方法,以更好地捕捉原型表示中的關系語義。
       
      6 Conclusion
      本文提出了RAPL,這是一種 用于FSDLRE的新穎的關系感知原型學習方法。本文將關系原型的構建重新定義為實例級別,并進一步提出了一種關系加權對比學習方法,來共同優(yōu)化關系原型。此外,本文設計了一種任務特定的NOTA原型生成策略,以更好地捕捉每個任務中的NOTA語義。實驗結果和進一步的分析證明了本文方法的優(yōu)越性和每個組件的有效性。在未來的工作中,本文想要將該方法遷移到其他少樣本文檔級信息抽取任務,例如少樣本文檔級事件論元抽取,它與FSDLRE具有相似的任務結構。
       
      Limitations
      首先,引入關系編碼器和尋找支持NOTA實例的過程增加了內存和時間的開銷。其次,假設實體信息應該被指定可能影響方法的魯棒性(Liu等人,2022b)。在有監(jiān)督的場景中,一些最近的DocRE研究探索了聯(lián)合實體和關系抽取,以避免這個假設(Eberts和Ulges,2021Xu和Choi,2022Zhang等人,2023)。本文認為,在少樣本場景中,研究端到端的DocRE是有益的,RAPL方法可能為未來的工作提供一些啟示。最后,RAPL在跨領域任務上的性能提升低于在領域內任務上的性能提升。一個未來的研究方向是探索提高跨領域任務性能的技術,例如數(shù)據(jù)增強(Hu等人,2023c)和結構化知識引導(Liu等人,2022aMa等人,2023a)。
       
      posted @ 2024-01-13 14:31  大雄的叮當貓  閱讀(296)  評論(0)    收藏  舉報
      主站蜘蛛池模板: 亚洲国产日韩a在线播放| 三人成全免费观看电视剧高清| 日韩精品一区二区三区久| 欧美激情 亚洲 在线| 欧美高清狂热视频60一70| 久久精品国产亚洲av麻| 秋霞在线观看片无码免费不卡| 日本精品一区二区不卡| 亚洲欧洲日产国码无码网站| 日韩国产精品中文字幕| 蜜臀久久99精品久久久久久 | 国产亚洲视频在线播放香蕉| 亚洲制服无码一区二区三区| 69天堂人成无码免费视频| 国产精品特级毛片一区二区三区| 久久综合婷婷成人网站| 亚洲尤码不卡av麻豆| 亚洲性无码av在线| 人妻夜夜爽天天爽| xxxx丰满少妇高潮| 日本特黄特黄刺激大片| 国精品91人妻无码一区二区三区| 无码欧亚熟妇人妻AV在线外遇 | 久久精品国产99久久久古代| 精品人妻伦九区久久aaa片69| 无码专区 人妻系列 在线| 亚洲国产欧美一区二区好看电影| 成人片黄网站色大片免费毛片| 性欧美暴力猛交69hd| 最近中文字幕国产精品| 芜湖县| 国产麻豆放荡av激情演绎| 又湿又紧又大又爽A视频男| 吴江市| 亚洲国产午夜精品福利| 老鸭窝在钱视频| 亚洲男人第一无码av网| 麻豆国产va免费精品高清在线| 老湿机69福利区无码| 日韩精品国内国产一区二| 国产乱码字幕精品高清av|