<output id="qn6qe"></output>

    1. <output id="qn6qe"><tt id="qn6qe"></tt></output>
    2. <strike id="qn6qe"></strike>

      亚洲 日本 欧洲 欧美 视频,日韩中文字幕有码av,一本一道av中文字幕无码,国产线播放免费人成视频播放,人妻少妇偷人无码视频,日夜啪啪一区二区三区,国产尤物精品自在拍视频首页,久热这里只有精品12

      《Learning from Context or Names?An Empirical Study on Neural Relation Extraction》論文閱讀筆記

      代碼

      原文地址

      預(yù)備知識:

      1.什么是對比學(xué)習(xí)?

      對比學(xué)習(xí)是一種機(jī)器學(xué)習(xí)范例,將未標(biāo)記的數(shù)據(jù)點(diǎn)相互并列,以教導(dǎo)模型哪些點(diǎn)相似,哪些點(diǎn)不同。 也就是說,顧名思義,樣本相互對比,屬于同一分布的樣本在嵌入空間中被推向彼此。 相比之下,屬于不同分布的那些則相互拉扯。

      摘要

      神經(jīng)模型在關(guān)系抽取(RE)的基準(zhǔn)任務(wù)上表現(xiàn)出色。但是,我們還不清楚文本中哪些信息對現(xiàn)有的RE模型的決策有影響,以及如何進(jìn)一步提升這些模型的性能。為了解決這個問題,本文實(shí)證地分析了文本中兩個主要的信息源:文本上下文和實(shí)體提及(名稱)對RE的作用。本文發(fā)現(xiàn),雖然上下文是預(yù)測的主要依據(jù),但RE模型也高度依賴于實(shí)體提及中的信息,其中大多數(shù)是類型信息;以及現(xiàn)有的數(shù)據(jù)集可能通過實(shí)體提及暴露了一些淺層的啟發(fā)式規(guī)則,從而使RE基準(zhǔn)任務(wù)上的性能看起來很高。基于這些分析,本文提出了一種基于實(shí)體掩碼對比預(yù)訓(xùn)練的框架,用于RE,旨在在避免對實(shí)體的死記硬背或?qū)μ峒爸械谋砻婢€索的利用的同時,對文本上下文和類型信息有更深入的理解。本文進(jìn)行了大量的實(shí)驗(yàn)來支持本文的觀點(diǎn),并證明該框架可以在不同的RE場景下提高神經(jīng)模型的有效性和魯棒性。

      1 Introduction

      通常,在典型的RE設(shè)置中,文本中有兩個主要的信息來源,可能會對RE模型的關(guān)系分類有幫助:那就是文本上下文和實(shí)體提及(名稱)。
       
      文本上下文中存在一些能夠表達(dá)關(guān)系事實(shí)的可解釋模式。比如,在圖1中,“... be founded ... by ...”就是一個能夠表示 founded by 關(guān)系的模式。早期的RE系統(tǒng)把這些模式形式化成字符串模板,然后通過匹配模板來識別關(guān)系。后來的神經(jīng)模型則更傾向于把這些模式編碼成分布式表示,再通過比較表示來預(yù)測關(guān)系。相比于剛性的字符串模板,神經(jīng)模型使用的分布式表示具有更好的泛化能力,也有更高的性能。
       
      實(shí)體提及對于關(guān)系分類也有很多信息價(jià)值。如圖1所示,可以從實(shí)體提及中獲得實(shí)體的類型信息,這可以幫忙排除一些不符合邏輯的關(guān)系。另外,如果這些實(shí)體能夠和知識圖譜(KGs)建立鏈接,模型就可以利用知識圖譜中的外部知識來輔助RE(Zhang等人, 2019; Peters等人, 2019)。此外,對于近期廣泛使用的RE模型中的預(yù)訓(xùn)練語言模型,它們在預(yù)訓(xùn)練過程中可能已經(jīng)隱含地學(xué)習(xí)了一些實(shí)體相關(guān)的知識(Petroni等人, 2019)。
       
      本文通過大量的實(shí)驗(yàn)來研究RE模型依賴于兩種信息源的程度。發(fā)現(xiàn):
      1. 文本上下文和實(shí)體提及都是RE的關(guān)鍵因素。實(shí)驗(yàn)表明,上下文是支持分類的主要來源,而實(shí)體提及也提供了重要的信息,尤其是實(shí)體的類型信息。
      2. 現(xiàn)有的RE基準(zhǔn)數(shù)據(jù)集可能通過實(shí)體提及泄露了一些淺層的線索,導(dǎo)致現(xiàn)有模型的高性能。實(shí)驗(yàn)顯示,即使只給定實(shí)體提及作為輸入,模型仍然可以達(dá)到高性能,這說明這些數(shù)據(jù)集中存在一些來自實(shí)體提及的有偏的統(tǒng)計(jì)線索。
      基于以上的觀察結(jié)果,本文提出了一種進(jìn)一步改進(jìn)RE模型的方法:應(yīng)該通過更好地理解上下文和利用實(shí)體類型來增強(qiáng)模型的能力,同時防止模型簡單地記憶實(shí)體或利用提及中的有偏線索。為此,本文探索了一種針對RE的實(shí)體掩碼對比預(yù)訓(xùn)練框架,使用Wikidata來收集可能表達(dá)相同關(guān)系的句子,并讓模型通過對比目標(biāo)來學(xué)習(xí)哪些句子在關(guān)系語義上是接近的,哪些是不接近的。在這個過程中,隨機(jī)地掩蓋實(shí)體提及,以避免模型被它們所影響。在不同的設(shè)置和基準(zhǔn)數(shù)據(jù)集上展示了這種預(yù)訓(xùn)練框架的有效性,本文認(rèn)為更好的預(yù)訓(xùn)練技術(shù)是朝著更好的RE的可靠方向。

      2 Pilot Experiment and Analysis

      2.1 Models and Dataset

      本文選取以下三個模型進(jìn)行實(shí)驗(yàn)分析:
      1. CNN:本文采用了Nguyen和Grishman (2015)提出的 卷積神經(jīng)網(wǎng)絡(luò) ,并參考了Zhang等人(2017)的做法,用詞性、命名實(shí)體識別和位置嵌入來豐富輸入。
      2. BERT:本文遵循 Baldini Soares等人(2019)的方法,使用BERT進(jìn)行RE,用特殊的標(biāo)記來突顯句子中的實(shí)體提及,并用實(shí)體表示的拼接來進(jìn)行分類。
      3. Matching the blanks (MTB): MTB (Baldini Soares等人,2019)是一個基于BERT的面向RE的預(yù)訓(xùn)練模型。它通過對兩個句子是否提及相同的實(shí)體對進(jìn)行分類來進(jìn)行預(yù)訓(xùn)練,其中實(shí)體提及被隨機(jī)地 遮蓋 。它和BERT一樣,用相同的方式進(jìn)行RE的微調(diào)。由于它沒有公開發(fā)布,本文自行預(yù)訓(xùn)練了一個版本的MTB,并在附錄A中給出了細(xì)節(jié)。
       
      本文使用的基準(zhǔn)數(shù)據(jù)集是 TACRED, 它是一個有監(jiān)督的RE數(shù)據(jù)集,具有106,264個實(shí)例和42個關(guān)系,它還為每個實(shí)體提供類型注釋。

      2.2 Experimental Settings

      本文使用不同的輸入格式來進(jìn)行RE,以便在可控的實(shí)驗(yàn)中觀察上下文和實(shí)體提及的影響。前兩種格式是以前的文獻(xiàn)采用的,也比較接近真實(shí)的RE場景:
      1. 上下文+提及(C+M):這是最常用的RE設(shè)置,其中提供了整個句子(包括上下文和突出顯示的實(shí)體提及)。為了讓模型知道實(shí)體提及的位置,本文對CNN模型使用位置嵌入(Zeng et al., 2014),對預(yù)訓(xùn)練的BERT使用特殊的實(shí)體標(biāo)記。
      2. 上下文+類型(C+T):本文用TACRED提供的類型替換實(shí)體提及。使用特殊的標(biāo)記來表示它們:例如,使用[person]和[date]來分別表示類型為person和date的實(shí)體。不同于Zhang et al. (2017),本文不會重復(fù)特殊標(biāo)記來匹配實(shí)體的長度,以避免泄露實(shí)體長度信息。
      3. 僅上下文(OnlyC):為了分析文本上下文對RE的貢獻(xiàn),本文用特殊的標(biāo)記[SUBJ]和[OBJ]替換所有的實(shí)體提及。在這種情況下,實(shí)體提及的信息源完全被阻斷。
      4. 僅提及(OnlyM):在這種設(shè)置下,本文只提供實(shí)體提及,丟棄所有其他的文本上下文作為輸入。
      5. 僅類型(OnlyT):這與僅提及類似,只不過本文只提供實(shí)體類型。

      2.3 Result Analysis

      表1展示了不同的輸入格式和模型在TACRED上的關(guān)系分類性能的詳細(xì)比較。從結(jié)果中可以得出以下結(jié)論:
      1. 文本上下文和實(shí)體提及都是關(guān)系分類的關(guān)鍵信息源,而實(shí)體提及中最重要的信息是它們的類型。如表1所示,OnlyC,OnlyM和OnlyT相比于C+M和C+T都有顯著的性能損失,說明單一的信息源是不足以支持正確的預(yù)測的,上下文和實(shí)體提及都是必不可少的。此外,還可以發(fā)現(xiàn)C+T在TACRED上與C+M在BERT和MTB上達(dá)到了相近的效果。這表明實(shí)體提及中的大部分有用信息是它們的類型信息。
      2. 在現(xiàn)有的RE數(shù)據(jù)集中,實(shí)體提及存在一些表面的線索,這可能導(dǎo)致RE模型的過高的性能。在TACRED上發(fā)現(xiàn)OnlyM在所有三個模型上都有很高的性能,這種現(xiàn)象在其他數(shù)據(jù)集中也有體現(xiàn)(見表5)。本文還對OnlyC相比于C+M的性能降低進(jìn)行了深入的分析,在第2.4節(jié)中發(fā)現(xiàn),在一些模型難以理解上下文的情況下,它們會傾向于利用實(shí)體提及的淺層啟發(fā)。這促使本文進(jìn)一步改進(jìn)模型在從上下文中提取關(guān)系的能力,同時避免它們對實(shí)體提及的死記硬背。
      可以注意到CNN的結(jié)果與BERT和MTB有一些不一致:CNN在OnlyC上的性能幾乎與OnlyM相同,而C+M比C+T低5%。本文認(rèn)為這主要是因?yàn)镃NN的編碼能力較弱,不能充分利用上下文的信息,而且更容易對數(shù)據(jù)集中實(shí)體提及的淺層線索產(chǎn)生過擬合。

      2.4 Case Study on TACRED

      為了進(jìn)一步了解不同輸入格式對性能的影響,本文對TACRED數(shù)據(jù)集進(jìn)行了詳細(xì)的案例研究,選擇了BERT作為示例,因?yàn)锽ERT代表了當(dāng)前最先進(jìn)的模型類別,而且在MTB數(shù)據(jù)集上也觀察到了類似的結(jié)果。
       
      首先,本文比較了C+M和C+T兩種輸入格式,發(fā)現(xiàn)C+M和C+T有95.7%的正確預(yù)測是一致的,而C+M的68.1%的錯誤預(yù)測也和C+T相同。這表明模型從實(shí)體提及中獲取的大部分信息是它們的類型信息。本文還在表2中列出了一些C+M和C+T的不同錯誤。C+M可能受到訓(xùn)練集中實(shí)體分布的影響。在表2中的兩個例子中,“Washington”只出現(xiàn)在per:stateorprovince of residence這個關(guān)系中,“Bank of America Corp.”只出現(xiàn)在no relation這個關(guān)系中,這種偏見可能導(dǎo)致模型的錯誤。另一方面,C+T可能在缺少具體實(shí)體提及的情況下,難以正確理解文本。如例子所示,用類型替換提及后,模型被“general assembly”誤導(dǎo)了,無法檢測出“Ruben”和“Ruben van Assouw”之間的關(guān)系。這表明實(shí)體提及除了類型之外,還提供了其他信息來幫助模型理解文本。
       
      本文還研究了為什么OnlyC相比于C+M有如此明顯的性能下降。在表3中,將OnlyC(相比于C+M)的所有獨(dú)有錯誤預(yù)測分為三類。“Wrong”表示句子中有明顯的關(guān)系模式,但被模型誤解了。“No pattern”意味著在掩蓋實(shí)體提及后,即使是人類也很難判斷是什么關(guān)系。“Confusing”表示在掩蓋實(shí)體后,句子變得模糊不清(例如,混淆城市和國家)。如表3所示,在OnlyC的獨(dú)有錯誤預(yù)測中,有近一半(42%)的句子有明確的關(guān)系模式,但模型無法識別出來,這表明在C+M中,模型可能依賴于實(shí)體提及的淺層啟發(fā)來正確預(yù)測句子。在其余的情況下,實(shí)體提及確實(shí)提供了分類的關(guān)鍵信息。

      3 Contrastive Pre-training for RE

      3.1 Relational Contrastive Example Generation

      為了提高RE的效果,本文模型在預(yù)訓(xùn)練階段就專注于從文本中學(xué)習(xí)關(guān)系和實(shí)體的表示。本文采用了對比學(xué)習(xí)的方法,通過讓“鄰居”之間的表示更相似,而讓“非鄰居”之間的表示更不同。在這里,“鄰居”是指在知識圖譜(KGs)中具有相同關(guān)系實(shí)體對的句子,而“非鄰居”是指沒有相同關(guān)系實(shí)體對的句子。
      這里的知識圖譜(KG)是由一些關(guān)系事實(shí)構(gòu)成的。從中隨機(jī)選擇兩個句子,它們各自包含了兩個實(shí)體。如果有一個關(guān)系,使得都在KG里,就把稱為“鄰居”。本文用Wikidata作為KG,因?yàn)樗陀脕眍A(yù)訓(xùn)練的Wikipedia語料庫很容易對應(yīng)起來。在訓(xùn)練過程中,先按照KG里的關(guān)系分布來采樣一個關(guān)系,然后再采樣一個和有關(guān)的句子對。為了做對比學(xué)習(xí),還要隨機(jī)采樣個句子,讓它們和組成個負(fù)樣本對。模型的任務(wù)是在所有正負(fù)樣本中,找出和有相同關(guān)系的那個句子。
      為了防止在預(yù)訓(xùn)練時過度依賴實(shí)體提及或僅提取它們的表面特征,本文用特殊符號 [BLANK] 隨機(jī)替換了一些實(shí)體提及。用 表示替換的實(shí)體比例,并參考 Baldini Soares 等人 (2019) 的方法設(shè)置。注意,預(yù)訓(xùn)練時完全遮蓋所有實(shí)體提及也不合適,因?yàn)檫@會導(dǎo)致預(yù)訓(xùn)練和微調(diào)之間的不一致,也會使預(yù)訓(xùn)練模型無法利用實(shí)體提及的信息(比如,學(xué)習(xí)實(shí)體類型)
       
      用一個例子來說明數(shù)據(jù)生成過程:在圖 2 中,有兩個句子“SpaceX was founded in 2002 by Elon Musk”和“As the co-founder of Microsoft, Bill Gates ...””,其中 (SpaceX, founded by, Elon Musk) 和 (Microsoft, founded by, Bill Gates) 都是KG中的關(guān)系。本文希望這兩個句子能夠有相似的表示,體現(xiàn)出 founded by 這個關(guān)系。而對于圖中右邊的另外兩個句子,由于它們的實(shí)體對之間沒有 founded by 這個關(guān)系,它們被認(rèn)為是負(fù)樣本,應(yīng)該與左邊的句子有不同的表示。在預(yù)訓(xùn)練時,每個實(shí)體提及都有的概率被替換為 [BLANK]。
       
      句子中可能沒有明確地表達(dá)出實(shí)體之間的關(guān)系,或者表達(dá)出的關(guān)系與期望的不一致。比如,一個句子提到了“SpaceX”和“Elon Musk”,它們之間可能有 founded by、CEO 或 CTO 等關(guān)系,也可能沒有任何關(guān)系。例如,“Elon Musk answers reporters’questions on a SpaceX press conference”這個句子就沒有體現(xiàn)出兩者之間的關(guān)系。但是,本文認(rèn)為這種噪聲對本文的預(yù)訓(xùn)練框架的影響不大:本文的目的是相比于原始的預(yù)訓(xùn)練模型,如 BERT,得到更適合RE的表示,而不是直接用于下游任務(wù)的關(guān)系抽取模型,所以可以容忍數(shù)據(jù)中的一些噪聲。 
       
      本文的模型利用生成的關(guān)系對比例子,提高了從提及中獲取類型信息和從文本上下文中理解關(guān)系語義的能力。
      (1)模型通過對比兩個涉及不同實(shí)體對但關(guān)系相同的句子,來識別實(shí)體提及之間的關(guān)系信息。 同時,使用實(shí)體掩碼策略,避免了對實(shí)體的簡單記憶,而是更多地關(guān)注實(shí)體類型信息。
      (2)通過學(xué)習(xí)一組表達(dá)相同關(guān)系的不同文本上下文,提取出關(guān)系的多樣化表達(dá)模式。MTB采用了更嚴(yán)格的規(guī)則,只采樣了兩個包含相同實(shí)體對的句子。這種方法雖然可以減少噪聲,但也限制了數(shù)據(jù)的多樣性,影響了模型學(xué)習(xí)類型信息的能力。

      3.2 Training Objectives

      本文的對比式預(yù)訓(xùn)練使用了與 BERT相同的 Transformer 架構(gòu)。用 ENC 表示 Transformer 編碼器,用表示第 i 個位置的輸出。對于輸入格式,參考了 Baldini Soares等人(2019) 的方法,用特殊的標(biāo)記來突出實(shí)體提及。例如,對于句子“SpaceX was founded by Elon Musk.”,輸入序列是““[CLS][E1] SpaceX [/E1] was founded by [E2] Elon Musk [/E2] . [SEP]”。
       
      在預(yù)訓(xùn)練過程中,有兩個目標(biāo):對比式預(yù)訓(xùn)練目標(biāo)和遮蔽語言建模目標(biāo)。

      對比式預(yù)訓(xùn)練目標(biāo) 

      如圖 2 所示,給定正樣本句子對和負(fù)樣本句子對,首先用 Transformer 編碼器得到中的關(guān)系感知表示:
       
       
      其中是特殊標(biāo)記 [E1] 和 [E2] 的位置,表示拼接。有了句子表示,就有了以下的訓(xùn)練目標(biāo):
      通過優(yōu)化模型使最小化,本文期望的表示更加接近,最終具有相似關(guān)系的句子會有相似的表示。

      遮蔽語言建模目標(biāo) 

      為了保持從 BERT 繼承的語言理解能力,并避免災(zāi)難性遺忘,本文也采用了 BERT 的遮蔽語言建模 (MLM) 目標(biāo)。MLM 隨機(jī)地遮蔽輸入中的一些詞,然后讓模型預(yù)測被遮蔽的詞,從而學(xué)習(xí)包含豐富語義和句法知識的上下文表示。用表示 MLM 的損失函數(shù)。
       
      最終,有以下的訓(xùn)練損失:

      4 Experiment

      4.1 RE Tasks

      Supervised RE

       
      這是RE中最廣泛采用的設(shè)置,其中有一個預(yù)定義的關(guān)系集合,數(shù)據(jù)集中的每個句子都表達(dá)了中的某個關(guān)系。在一些基準(zhǔn)測試中,有一種特殊的關(guān)系叫做,表示句子中沒有表達(dá)給定實(shí)體之間的任何關(guān)系,或者它們的關(guān)系不包含在中。對于有監(jiān)督的 RE 數(shù)據(jù)集,本文使用 TACRED,SemEval-2010 Task 8 ,Wiki80和 ChemProt 。表 4 顯示了數(shù)據(jù)集之間的比較。本文還添加了 1% 和 10% 的設(shè)置,意味著只使用訓(xùn)練集的 1% / 10% 的數(shù)據(jù)。這是為了模擬低資源的情況,并觀察模型性能在不同的數(shù)據(jù)集和設(shè)置下的變化。注意,ChemProt 只有 4169 個訓(xùn)練實(shí)例,這導(dǎo)致了表 5 中 1% ChemProt 的異常結(jié)果。在附錄 B 中給出了這個問題的詳細(xì)說明。

      Few-Shot RE

      少樣本學(xué)習(xí)(Few-shot learning)是一個近期出現(xiàn)的研究主題,它探討如何用少量的樣本來訓(xùn)練一個模型,使其能夠處理新的任務(wù)。少樣本關(guān)系抽取(Few-shot RE)的一個典型設(shè)置是 N-way K-shot RE,其中在每個評估階段,從 N 個關(guān)系類型中采樣 K 個樣本,以及一些查詢樣本(都屬于 N 個關(guān)系中的一個),并要求模型根據(jù)給定的 N ×K 個樣本來對查詢樣本進(jìn)行分類。本文使用 FewRel 作為數(shù)據(jù)集,并在表 4 中列出了它的統(tǒng)計(jì)信息。使用原型網(wǎng)絡(luò)(Prototypical Networks)作為模型,參考前 的方法,并做了一些改動:(1)使用第 3.2 節(jié)描述的表示方法,而不是使用 [CLS]。 (2)使用點(diǎn)積(dot production)而不是歐氏距離(Euclidean distance)來衡量樣本之間的相似度。本文發(fā)現(xiàn)這種方法比原始原型網(wǎng)絡(luò)有很大的提升。

      4.2 RE Models

      本文在 2.1 節(jié)介紹了 BERT 和 MTB 兩種預(yù)訓(xùn)練模型,用于(RE。除此之外,本文還提出了一種新的對比預(yù)訓(xùn)練框架 (CP),并對其進(jìn)行了評估。所有模型的預(yù)訓(xùn)練和微調(diào)過程的詳細(xì)超參數(shù)設(shè)置,都寫在了附錄 A 和 B 中。值得注意的是,由于 MTB 和 CP 都使用了 Wikidata 作為預(yù)訓(xùn)練數(shù)據(jù),而 Wiki80 和 FewRel 這兩個數(shù)據(jù)集也是基于 Wikidata 構(gòu)建的,所以在預(yù)訓(xùn)練時排除了這兩個數(shù)據(jù)集測試集中的所有實(shí)體對,以防止測試集泄露的問題。

      4.3 Strength of Contrastive Pre-training

      表 5 和 6 對 BERT、MTB 和本文對比預(yù)訓(xùn)練模型進(jìn)行了詳細(xì)的比較。無論是在不同的設(shè)置還是不同的數(shù)據(jù)集上,MTB 和 CP 都能顯著提升模型的性能,體現(xiàn)了面向關(guān)系抽取的預(yù)訓(xùn)練的強(qiáng)大作用。相較于 MTB,CP 獲得了更優(yōu)的結(jié)果,證明了對比預(yù)訓(xùn)練框架的有效性。具體來說,本文發(fā)現(xiàn):
      (1) CP 在 C+M、OnlyC 和 OnlyM 這三種設(shè)置下都能提高模型的性能,說明本文的預(yù)訓(xùn)練框架能夠同時增強(qiáng)模型對上下文的理解和對類型信息的抽取能力。
      (2) CP 在 C+M 和 OnlyC 這兩種設(shè)置下的性能提升是普遍的,即使是在來自生物醫(yī)學(xué)領(lǐng)域的 ChemProt 和 FewRel 2.0 數(shù)據(jù)集上也是如此。其在維基百科上訓(xùn)練的模型在生物醫(yī)學(xué)數(shù)據(jù)集上也有良好的表現(xiàn),說明 CP 學(xué)習(xí)到了跨領(lǐng)域的關(guān)系模式。
      (3) CP 在 OnlyM 這種設(shè)置下也有顯著的改進(jìn),特別是在與維基百科密切相關(guān)的 TACRED、Wiki80 和 FewRel 1.0 數(shù)據(jù)集上。這表明本文的模型在從提及中抽取類型信息方面有更好的能力。上下文和提及的雙重提升最終使得 CP 的關(guān)系抽取結(jié)果更好(更好的 C+M 結(jié)果)。
      (4) 本文的對比預(yù)訓(xùn)練模型在低資源和少樣本的設(shè)置下的性能提升更為明顯。對于 C+M,觀察到在 10-way 1-shot FewRel 1.0 上的提升為 7%,在 TACRED 的 1% 設(shè)置上的提升為 18%,在 Wiki80 的 1% 設(shè)置上的提升為 24%。OnlyC 和 OnlyM 也有類似的趨勢。在低資源和少樣本的設(shè)置下,由于訓(xùn)練數(shù)據(jù)的不足,模型更難從上下文中學(xué)習(xí)到關(guān)系模式,更容易過擬合于提及的表面線索。但是,通過對比預(yù)訓(xùn)練,本文的模型可以更好地利用文本上下文,同時避免被實(shí)體所影響,從而大幅度地超過了其他的基線模型。
      posted @ 2024-02-09 09:19  大雄的叮當(dāng)貓  閱讀(185)  評論(0)    收藏  舉報(bào)
      主站蜘蛛池模板: 99精品国产一区二区三区不卡| 99精品高清在线播放| 久久精品国产99国产精品严洲| 久久久国产精品VA麻豆| 亚洲高清国产成人精品久久| 97亚洲熟妇自偷自拍另类图片| free性开放小少妇| 91精品国产午夜福利| 国产成人精品日本亚洲网站 | 国产suv精品一区二区五| 天堂av资源在线免费| 亚洲国产精品一二三区| 人妻偷拍一区二区三区| 人妻日韩精品中文字幕| 亚洲夜色噜噜av在线观看| 国产精品美女一区二三区| 日韩福利片午夜免费观着| 精品人妻系列无码人妻漫画| 一 级做人爱全视频在线看| 韩国美女福利视频一区二区| 国产99在线 | 欧美| 免费午夜无码片在线观看影院| 2021最新国产精品网站| 日韩一区二区三区日韩精品| 国产精品性视频一区二区| 国产国产乱老熟女视频网站97| 国产精品免费视频不卡| 国产精品成| 国产亚洲精品VA片在线播放| 阜南县| 自拍偷自拍亚洲一区二区| 国产精品夫妇激情啪发布| 日本中文字幕乱码免费| 日本精品一区二区不卡| 粉嫩蜜臀av一区二区三区| 久久精品一本到99热免费| 一区二区三区精品视频免费播放| 亚洲区激情区无码区日韩区| 偷拍精品一区二区三区| 久久久无码人妻精品无码| 最新的国产成人精品2022|