色综合中文综合网_性猛交娇小69hd_久久精品99久久久久久_欧美日韩精品一区二区三区四区 _97视频色精品_国产高清精品久久久久_日日鲁鲁鲁夜夜爽爽狠狠视频97 _国产成人免费视频精品含羞草妖精 _熟女少妇在线视频播放_精品人妻一区二区三区麻豆91 _久久女同性恋中文字幕_一区二区福利视频

模塊化大模型來了!IBM公開WastonX核心架構技術細節

增加模塊就能學新語言

允中 發自 凹非寺
量子位 | 公眾號 QbitAI

大型語言模型(LLMs)的性能非常強大,但是現有的模型訓練和部署成本都很高。而且在不忘記先前知識的前提,擴展它們去學習新的知識也很困難。也很難針對特定的任務去提取出輕量化的模型。

最近,來自MIT-IBM Waston AI Lab、清華大學、Mila的研究人員聯合提出了一種新的神經網絡架構ModuleFormer,利用模塊化來大幅提高大型語言模型的效率和靈活性。

ModuleFormer是一種基于稀疏專家混合(SMoE)的模塊化架構,包括兩種不同類型的模塊,即新的stick-breaking注意力專家模塊和傳統的MLP專家模塊。在訓練和推理過程中,根據輸入的向量,不同的模塊會被稀疏地激活。

與之前基于SMoE的模塊化語言模型不同,ModuleFormer可以通過其新的負載平衡(load balance)和負載集中(load concentration)損失函數從未經篩選的數據中誘導出模塊化。

在實驗中,團隊發現模塊化架構使得大型預訓練語言模型具備了三個重要的能力:

1)效率

因為ModuleFormer只對每個輸入只激活一小部分模塊,因此可以以兩倍以上的吞吐量達到與常規語言模型相同的性能。

2)可擴展性

實驗表明,由于微調階段ModuleFormer只需要更新一部分的模塊,因此比常規語言模型更不容易發生災難性遺忘,并且可以輕松通過新的模塊擴展以學習訓練數據中不包含的新知識。

3)模塊特異化和篩選

在微調階段ModuleFormer,新提出的負載集中損失函數可以自動篩選一部分模塊,讓它們專注于目標任務,而與任務無關的模塊可以被直接拋棄掉以實現輕量化部署。

導言

盡管現代大型語言模型(LLM)在某些任務上取得了顯著的成果,甚至超過了人類的表現,但其效率和靈活性仍然不高。

大多數LLM(例如Llama,Falcon)在推理和訓練過程中都使用了它們的全部參數,我們稱這些模型為密集模型。

然而,先前的研究已經表明,在執行任何特定任務時,神經模型中的大部分參數都可以在不影響模型性能的前提下被剪枝掉。

此外,一旦訓練完成,LLM就會“定格在某個時間點”,但許多實際應用情況要求LLM具有最新的知識。因此模型進行continue leanring的擴展能力也十分重要。

隨著模型規模的增長,為了領域適應或持續學習而對整個模型進行微調變得代價高昂且計算資源受限,這使得那些計算預算較小的用戶無法實施。同時,更新所有參數也使得模型容易遭受災難性遺忘(catastrophic forgetting)。

為此,像LoRA這樣僅更新一小部分原始參數修正量的輕量級適應方法正在變得流行。

然而實驗表明,這種方法仍然可能遭受災難性遺忘影響,并且LoRA并不擅長需要模型學習大量新知識的場景,比如讓模型學習一種新的語言。

文章作者認為模塊化是解決前述問題的一個好方法。模塊化模型具有以下幾個優點:

  • 模型可以在輸入或任務上激活一組模塊條件,從而比密集激活整個模型需要更少的計算量;
  • 在給定領域或任務的情況下,可以組裝一組與領域/任務相關的模塊,形成一個新的輕量級模型;
  • 模型可以輕松添加新的模塊進行領域適應或持續學習;
  • 模型可能更不容易發生災難性遺忘,因為只有與輸入相關的模塊在模型微調期間進行更新。

這篇論文提出了一種新的模塊化架構,ModuleFormer(圖1a),以及在其中進行模塊操作的方法。ModuleFormer每層包含一個組前饋神經網絡(MLP)專家模塊和一組新提出的Stickbreaking注意力專家模塊。

為了平衡在訓練過程中不同模塊的負載,作者提出了一種新的互信息損失函數。此外,文章還展示了如何在ModuleFormer中插入新模塊(圖1b)和進行模塊修剪(圖1c)。

為了實現模塊修建,文章引入了一種新的負載集中損失函數,用于在微調的過程中自動選擇最適合執行給定任務的模塊,同時通過微調進一步增強了這些模塊執行該任務的能力。

圖1

實驗結果顯示ModuleFormer相對于密集模型在以下方面有顯著的提升:

  • 由于稀疏的模塊激活機制(圖1a)它在更低的延遲(50%)和更小的內存占用下實現了與密集LLM相同的性能,因此ModuleFormer可以實現密集模型兩倍的吞吐量。
  • 在對新領域進行微調后,它收到災難性遺忘的影響較低,并且也可以輕松地通過添加新模塊來學習新語言和知識。(圖1b)。
  • 它可以在下游任務上進行微調,將一部分模塊特異化成為處理該任務專用的模塊,而未使用的模塊可以被扔掉而不會犧牲模型在該任務上的性能(圖1c)。

詳解ModuleFormer模型

Sparse Mixture of Experts(SMoE)的基本結構

SMoE最早由Shazeer在《Outrageously large neural networks: The sparsely-gated mixture-of-experts layer》一文中提出。

每個SMoE層包含一組用于處理輸入產生輸出的專家模塊m_1, m_2, …, m_n,以及一個用于挑選專家的路由函數g。在本篇文章中,路由函數由一個一層的神經網絡來建模:

在給定一個輸入向量x之后,路由函數g會計算一個專家模塊的概率分布g(m|x),然后模型會自動選擇分布中前top k的專家模塊來處理輸入x。SMoE層的輸出就是專家模塊的輸出通過對應的路由概率家和得到:

其中不再topk內的專家模塊不會被計算,同時對應的概率g也會被用0替代。

在ModuleFormer中,作者使用了兩種不同的專家模塊來分別構建傳統transformer解碼器中的自注意力層(self attention)和前饋層(MLP)。其中前饋層的專家模塊和常見的SMoE專家模塊一致,是一個單一隱藏層的全連通神經網絡。而自注意力層的專家模塊則是一個新提出的stick-breaking注意力模塊。

Stick-Breaking注意力模塊

Stick-Breaking自注意力是設計用于取代Transformer解碼器的自注意力層,使用狄利克雷過程中的Stick-Breaking(折棍子)過程對每個字符xt與之前的字符x<t之間的注意力分布進行建模,而不是標準自注意力層中的softmax函數。

Stick-Breaking自注意力的優勢在于它會自動關注最近的相關字符,而不需要引入額外的位置信息,比如position embedding和relative position bias。

給定一個包含 t 個時間步的輸入向量序列 x1, x2, …, xt,每個輸入被投影到一系列key向量 k1, k2, …, kt 和一系列value向量 v1, v2, …, vt。為了計算時間 t 的注意力,輸入 x_t 被投影到一個查詢向量 q_t = W_q x_t,其中 W_q 是查詢投影矩陣。對于所有之前的步驟和當前步驟 i ≤ t,計算時間步 i 的鍵與時間步 t 的查詢匹配的概率:

需要注意的是,這個查詢概率使用了sigmoid激活函數,所以沒有歸一化。接下來通過stick-breaking過程來對查詢概率進去歸一化:

這樣,注意力就會自動分配給離t時刻最近,且具有較大查詢概率的時刻。使得自注意力機制在沒有額外的位置信息的情況下,也能對于相對位置進行有效的建模。最終,自注意力模塊的輸出是由注意力權重對歷史的value向量進行加和并且投影得到:

ModuleFormer中的模塊控制

預訓練中的負載均衡

為了避免SMoE反復使用相同的模塊并浪費其他模塊的額外容量,一般采用負載平衡損失函數來調節每個專家的使用頻率。與之前的SMoE模型 不同,團隊希望最大化輸入字符和模塊之間的互信息(MI):

為了簡化起見,假設在批次X中的令牌分布是均勻的,因此p(x) = 1/X。在去除所有常數成分后,可以簡化互信息損失(公式6)為p(m)的熵與p(m | x)的條件熵之間的差異。

在上述內容中,p(m) = sum_x(g(m|x)p(x)),其中p(x)是批處理中每個字符的概率,H(m)是模塊分布的邊際熵,H(m | x)是模塊在給定輸入字符x的條件下的熵,|X |是輸入字符的數量。對于長度為T的batch大小為B的小批量,字符的數量是|X | = BT,字符的概率是p(x) = 1/|X |。

直觀地說,互信息損失最大化了模塊的概率分布的邊際熵,并最小化了給定輸入x的模塊條件分布的商。它平衡了整個batch中每個專家的負載(最大化H(m)),同時也鼓勵每個輸入x將其路由概率集中在較少的模塊上(最小化H(m | x))。

微調中的負載集中

盡管團隊希望在預訓練期間最大限度地利用每個專家的能力,但在微調期間希望將少量的模塊專注于下游任務。這樣可以移除未使用的模塊并減少微調后模型的參數數量。為了將負載集中在較少的模塊上,團隊引入了一個新的負載集中損失函數來最小化模塊的邊際熵:

這樣可以鼓勵模型使用更少的模塊來處理下游任務。在微調后,可以計算在訓練或驗證集上使用的模塊頻率f_m。f_m代表了模塊m對于這個任務的重要性,可以通過移除f_m小于某個特定閾值的專家來輕松實現模型剪枝。

用新的模塊來學習新的知識

對于模塊化模型來說,插入新模塊是一種直接且參數高效的方法,可以在不對整個模型進行微調的情況下學習新知識。當向每一層插入N_new個隨機初始化的模塊時,還需要擴展路由器(方程2中的A)中的模塊嵌入層A,使其包含一個形狀為(N_new,D_rtr)的新矩陣A’。因此,

新的路由函數可以寫成:

由于在微調期間其他的模塊參數被凍結,因此使用新模塊進行持續學習可以在很大程度上避免災難性遺忘問題。

然而,災難性遺忘仍然可能影響路由函數。當新模塊在一個新領域進行訓練時,如果路由函數錯誤地將來自舊領域的輸入路由到新專家,模型可能會遭受災難性遺忘。

為了避免這種情況,團隊對路由函數進行了正則化以避免災難性遺忘,并提出了兩種訓練策略:

1)全面微調路由,公式9中A和B使用預訓練參數進行初始化,而A’則是隨機初始化的。這個策略是為了訓練數據中同時包含新舊數據的情況設計。

2)只訓練A’,這個策略是為了連續學習(lifelong learning)的情況而設計的,不使用以前訓練過的數據。由于這種情況可能導致新的模塊使用頻率過高,從而帶來災難性遺忘。團隊引入了正則項來限制A’的范數:

與被指出存在缺陷的傳統連續學習正則化方法(如衰減或L2損失)不同,路由正則化不限制專家的能力,而只限制對新專家的使用趨勢。

評估

基于ModuleFormer,研究者在Pile數據集上預訓練了三個不同體積和計算量的ModuleFormer Language Model(MoLM)語言模型:

基礎性能評估

團隊使用Language Model Evaluation Harness來評估零樣本、少樣本和語言建模任務中的語言模型。

對于零樣本和少樣本任務,目標是在給定上下文的基礎上從一組給定選項中選擇最合適的完成部分。最終選擇在給定上下文下具有最高可能性的完成部分。

對于語言建模,在Wikitext數據集上進行測試。目標是最小化下一個標記預測的困惑度。

對于代碼生成,在HumanEval數據集上評估模型。HumanEval包含164個手寫的Python編程問題。模型需要根據任務描述提示完成一個函數,以便能夠通過所有提供的測試案例。

表2和表3顯示了MoLM和基準語言模型在常識推理、閉卷問答和代碼生成基準上的性能。

總體而言,MoLM-4B-K2模型的性能與大約13億參數的稠密模型相當,MoLM-4B-K4和MoLM-8B-K2模型的性能與大約27億參數的稠密模型相當。

由于其稀疏計算結構,MoLM處理每個字符的激活參數僅(等同于計算量)相當于同等性能稠密模型的約25%。因此,它減少了50%的延遲,同時具有較低的內存使用峰值,并在GPU內存完全占用時將吞吐量提高了2倍。

通過增加模塊學習新語言

在本節中,我們測試了模型學習新語言的能力。主要研究兩種實驗設置:連續聯合預訓練(continual joint pre-training)和連續終身預訓練(continual lifelong pre-training)。

它們的區別在于是否有英文文本的存在。對于這兩種設置,我們通過在CC-100語料庫上進行語言模型任務,不斷地對ModuleFormer和GPT-Neo進行預訓練。為了評估質量,我們采用了由XGLM和mGPT引入的0-shot方法的mLAMA基準測試。

持續聯合預訓練:在這部分中,我們對聯合訓練的模型進行持續預訓練。具體而言,我們混合了英語和一種新語言來構建一個新的訓練語料庫,并保持嵌入層可訓練。聯合訓練[Caruana, 1997]是一種眾所周知的多任務學習方法,展示了對舊任務和新任務的熟練掌握。然而,它經常在不同任務之間產生負面干擾。

表4顯示了持續訓練模型獲得的結果。表格揭示了以下發現:

1)我們觀察到稀疏模型在Fully Tuned的情況下經歷較少干擾,最終得到了最好的的性能;
2)ModuleFormer通過增加模塊(Insert New Expert)的能力,比之前的LoRA方法展示出了更好的少量參數(Parameter Efficient)調優的能力。這些結果表明,稀疏架構帶來了更強的抗遺忘能力。

持續終身預訓練:對于這個實驗設定,模型僅在新語言文本上進行訓練。Abraham和Robins [2005] 提出了穩定性-可塑性困境,這解釋了模型面臨的一個困難挑戰:
1)模型應具有較高的可塑性以學習新語言,
2)模型必須具有出色的穩定性,考慮到在眾多的訓練迭代中不會接觸到任何英語標記。

表5顯示了LoRA基準和我們的方法在不同的路由正則化損失權重下的結果。我們的ModuleFormer借助路由正則化損失表現出了強大的平衡穩定性和可塑性的能力。

當我們通過增加損失權重來限制新專家的使用時,模型獲得了穩定性,但可塑性下降。相比之下,使用LoRA對GPT-Neo進行微調在穩定性和可塑性方面都落后。

相比于1.33億可訓練參數的高秩LoRA,低秩LoRA(減少訓練參數到2400萬)和基本正則化都無法改善穩定性。

微調和壓縮模型

在本節中,我們展示了ModuleFormer中的模塊可以被快速移除,以創建一個在尺寸上更小但性能不受損的任務專用模型。

我們首先從GitHub-code-clean數據集中創建了一個包含150億個字符的子集,該子集只包含Python代碼。然后,我們使用負載集中損失函數(權重為0.001)對MoLM-4B-K2模型在該數據集上進行精調。

在精調之后,我們在從精調數據集中隨機抽樣的小型評估集上,計算每個專家的激活頻率,然后通過將每層除以層內最大頻率來進行歸一化。之后,我們設定一個閾值τ,并修剪了所有歸一化頻率低于該閾值的模塊。

我們在HumanEval數據集上測試了我們修剪后的MoLM-4B-K2模型。

圖2a說明了pass@k指標與剩余參數比例之間的相關性。圖2b展示了剩余參數比例與閾值之間的關聯。我們觀察到:

1)修剪不必要的模塊對結果影響不大。我們可以修剪40%至50%的參數而不犧牲性能。相反,適當的修剪(33%)使精調后的模型在任務上表現更好。

2)模塊分布存在顯著差異,大約有一半的模塊的激活頻率低于最常使用的專家的0.3%。這個結果顯示了負載集中損失函數的有效性。

總結

在這篇論文中,我們提出了一種新的模塊化架構ModuleFormer,以及與之相關的模塊操作方法。

ModuleFormer包括幾個新組件:新的Stickbreaking注意力機制、新的互信息負載平衡損失函數用于預訓練,以及新的負載集中損失函數用于微調。

基于ModuleFormer,我們預訓練了一個新的語言模型MoLM。我們的實驗結果顯示了MoLM的相對于稠密LLM展現出了一些新的能力:

1)它在更低的延遲(50%)和更小的內存占用下實現了與密集LLM相同的性能;從而提高了吞吐量超過2倍;

2)在對整個模型進行微調以適應新領域后,它對災難性遺忘的魯棒性較強,并且也可以輕松擴展以學習新的語言和知識;

3)它可以在下游任務上進行微調,以使一部分模塊專注于任務,并且未被任務使用的模塊可以被修剪而不影響性能。

論文地址:
https://arxiv.org/abs/2306.04640

版權所有,未經授權不得以任何形式轉載及使用,違者必究。
久久亚洲精品国产亚洲老地址| 日韩污视频在线观看| 成人黄色在线观看| 成人免费高清在线| 国产精品探花一区二区在线观看| 国内精品免费午夜毛片| 中文字幕一区二区三区在线播放 | 一区二区三区在线观看免费视频| 91国产美女视频| 日韩精品一区第一页| 国产情侣av自拍| 欧美亚洲视频在线观看| 亚洲尤物在线视频观看| 国产不卡精品视频| 国产精品99精品无码视亚| 久久99精品国产99久久6尤物| 蜜臀av一区二区在线免费观看| 中文字幕 日本| 深夜福利成人| 日本国产一区二区三区| 欧美中文字幕不卡| 国产成a人无v码亚洲福利| 欧美精品成人久久| 手机版av在线| 波多野结衣久草一区| 亚洲男人第一网站| 成人免费视频视频在线观看免费| 精品无码黑人又粗又大又长| 欧美wwwwwww| 国产一区深夜福利| 亚洲人成人99网站| 亚洲成a人片在线观看中文| 久久露脸国语精品国产91| 涩涩网站在线看| 正在播放精油久久| 欧美精品免费在线| 激情av一区二区| 久久99精品久久久久久动态图| 精品99久久久久成人网站免费| 91人人澡人人爽人人精品| 欧美在线视频一区二区三区| 亚洲精品国产精品久久清纯直播 | 成人毛片视频网站| 久久久女女女女999久久| 亚洲欧美日韩在线| 国产毛片精品视频| 黄色福利在线观看| 欧美日韩综合在线观看| 青青草原av在线播放| 亚洲欧洲一区二区福利| 99理论电影网| 91免费高清视频| 国产成人jvid在线播放| 欧美激情国内偷拍| 色综合天天在线| 国产欧美日本一区视频| 国产精品主播直播| 日韩不卡在线观看日韩不卡视频| 久久午夜福利电影| 欧美性猛交xxx乱久交| 欧美黑人xxxxx| 日韩欧美一区二区三区久久婷婷| 91麻豆蜜桃| 蜜桃av久久久亚洲精品| 97国产精品人人爽人人做| 精品国产一区二区国模嫣然| 91成人国产精品| 日韩一区二区三区四区 | 亚洲欧洲日产国码无码久久99| 久久久久久久9| 黄色免费观看视频网站| 手机免费av片| 国产熟妇搡bbbb搡bbbb| 91性高潮久久久久久久| 免费在线观看你懂的| 992在线观看| 亚洲色图欧美色| 日本高清黄色片| 日本三级2019| www.欧美国产| 99久久er热在这里只有精品66| 91在线国产福利| 一区二区三区欧美日| 最新久久zyz资源站| 欧美亚洲日本国产| 欧美色倩网站大全免费| 亚洲老头老太hd| 欧美在线一区二区三区四| 国内揄拍国内精品| 国产伦精品一区二区三区四区免费 | 亚洲人成在线观| 91精品国产高清| 国产91精品久| 伊人久久大香线蕉成人综合网 | 久久久久久网| 欧美不卡一区二区三区| 亚洲女人天堂成人av在线| 亚洲国产精品国自产拍av秋霞| 成人中心免费视频| 免费超爽大片黄| 美日韩一区二区| 日韩在线视频观看免费| 国产高清一区日本| 色屁屁一区二区| 久热精品在线视频| 国产99久久久欧美黑人| 国产免费久久av| 国产嫩草一区二区三区在线观看| eeuss一区二区三区| 欧美日本韩国国产| 99riav国产精品视频| 久久久久国产视频| 91精品国产综合久久婷婷香蕉 | 动漫精品一区二区| 日韩精品一区二区三区视频 | 久久精品视频网| 亚洲日韩中文字幕| 成年人三级视频| 久久综合激情网| 老司机精品视频网站| 欧美精品久久99| 欧美另类网站| www.日本精品| 日韩欧美中文免费| 国产麻豆一区二区三区在线观看| 热久久久久久久久| 久久精品国产99久久6| 欧美mv日韩mv国产网站app| 7777奇米亚洲综合久久| 成年人网站免费看| 99久久国产综合精品女不卡| 国产做受高潮69| 青春草在线视频免费观看| 成人午夜福利一区二区| 国产在线乱码一区二区三区| 久久久国产在线视频| 米仓穗香在线观看| 精品人妻在线播放| 欧美视频精品在线| 日韩国产成人无码av毛片| 少妇一级淫片免费看| 亚洲一级黄色片| 久久久一本二本三本| 久久午夜精品一区二区| 久久精品成人动漫| 大又大又粗又硬又爽少妇毛片| 爽好久久久欧美精品| 欧美激情视频网站| 九九热免费在线| 一区二区三区精品| 97超级碰碰碰久久久| 中文字幕在线播放视频| 国产一区二区三区在线观看免费 | 一区免费观看视频| 国产一区二区在线网站 | 亚洲国产一区在线| 丝袜美腿高跟呻吟高潮一区| 日韩女优电影在线观看| 欧洲在线免费视频| 日韩高清在线电影| 国产精品自拍在线| 国产裸体写真av一区二区| 国产精品111| 亚洲男人天堂2024| 久久精品一区二区三区四区五区| 色偷偷久久人人79超碰人人澡| 九九九九免费视频| 夜夜爽夜夜爽精品视频| 热久久精品国产| 国产精品伊人色| 日韩亚洲一区在线播放| 日韩理论片在线观看| 日本少妇激情视频| 亚洲视频自拍偷拍| www深夜成人a√在线| 精品99999| 欧美熟妇精品一区二区| 欧美性生交xxxxx久久久| 日韩肉感妇bbwbbwbbw| 亚洲欧美日韩一区二区三区在线观看 | www.555国产精品免费| 欧美一级日韩免费不卡| 亚洲黄色av片| 亚洲国产成人精品久久久国产成人一区| 久久只有这里有精品| 亚洲欧美另类自拍| 九一在线免费观看| 欧美成人免费在线观看| 麻豆精品免费视频| 中国人与牲禽动交精品| av中文在线播放| 亚洲人成在线一二| 国产成人免费在线观看视频| 欧美日韩你懂的| 永久看看免费大片| 欧美日本一区二区三区| 午夜爱爱毛片xxxx视频免费看| 欧美黑人xxx| 亚洲天堂777| 2022国产精品| 久久欧美中文字幕| 中国特级黄色大片| 欧美日韩国产片| 国产成人免费在线观看视频| 欧洲精品毛片网站| 99r精品视频| 亚洲av成人片无码| 38少妇精品导航| 精品一区二区国语对白| 欧美亚洲日本一区二区三区| 在线播放91灌醉迷j高跟美女| 欧洲成人一区二区三区| 久久国产精品电影| 亚州av在线播放| 国产极品尤物在线| 亚洲美女在线看| 美女国产一区二区三区| 亚洲熟妇av一区二区三区漫画| 欧美xxxxxxxxx| 日韩**一区毛片| 色偷偷中文字幕| 久久久视频在线| 国产午夜精品理论片a级大结局| 特大黑人巨人吊xxxx| 91免费欧美精品| 欧美中文字幕久久| 噜噜噜久久,亚洲精品国产品| 国产无套内射久久久国产| 日日摸夜夜添一区| 91美女蜜桃在线| 国产手机在线视频| 日本成人在线不卡| 视频直播国产精品| 国产欧美精品在线观看| 国产又爽又黄的视频| 久久婷婷五月综合| 在线视频不卡国产| 日韩电影中文字幕在线| 久久久99精品免费观看| 天天做天天干天天操| 91精品国产综合久久久久久| 人妻少妇一区二区三区| 99久久激情视频| 国产精品久久久久久五月尺 | 亚洲国产精品99久久久久久久久| 青青青在线视频| 亚洲亚洲精品三区日韩精品在线视频| 亚洲国产精品yw在线观看 | 国模叶桐国产精品一区| 亚洲国产另类av| 神马午夜电影一区二区三区在线观看| 久久久久久蜜桃一区二区| 国产精品成av人在线视午夜片| 欧美日韩夫妻久久| 成人精品高清在线| 国产精品嫩草影院精东| 国产草草浮力影院| 日韩免费毛片| 97高清免费视频| 日韩一级片在线观看| 日本一区二区动态图| 视频一区欧美精品| 国产无精乱码一区二区三区| 国产精品区在线| 在线亚洲美日韩| 91免费精品国偷自产在线| 久久在线观看视频| 欧美tickling挠脚心丨vk| 夜夜嗨av一区二区三区网页| 麻豆精品在线看| 亚洲最大成人在线视频| 久久久久久久久久网站| a级大片免费看| 亚洲精品成人a8198a| 欧美在线亚洲一区| 日韩在线免费高清视频| 日韩精品欧美激情| 欧美视频在线观看一区| 亚洲视频综合在线| 国产成人欧美日韩在线电影| 亚洲精品视频91| 国产男人搡女人免费视频| 美国黑人一级大黄| 国产精品无码毛片| 麻豆网站免费观看| 国产xxxxhd| 波多野结衣xxxx| 国产天堂在线播放| 欧美黄网站在线观看| 亚洲国产精品影视| 亚洲国产欧洲综合997久久| 97免费资源站| 国产这里只有精品| 国产精品久久9| 国产精品久久久久久久久久三级| 国产成人极品视频| 国产精品露脸自拍| 国产91在线播放九色快色| 2020欧美日韩在线视频| 国产成+人+综合+亚洲欧洲| 日本三级久久久| 国产精品一级久久久| 亚洲在线播放电影| 久久这里只有精品8| 女性女同性aⅴ免费观女性恋| 久久无码高潮喷水| 亚洲在线观看网站| 一级二级黄色片| 欧美偷拍第一页| 少妇久久久久久被弄高潮| 欧美成人777| 精品一级少妇久久久久久久| 国产一区二区网站| 天天干天天舔天天射| 国产xxx精品视频大全| 亚洲欧美日韩系列| 欧美日本一区二区在线观看| 亚洲欧洲第一视频| 国产精品免费看久久久香蕉| 久久免费视频一区| 中文字幕自拍vr一区二区三区| 91久色国产| 91成品人影院| 亚洲国产精品久久人人爱蜜臀| 亚洲娇小xxxx欧美娇小| 欧美激情一区二区久久久| 成人啪啪免费看| 欧美成人精品欧美一级乱| 国产美女搞久久| 国产日产精品一区二区三区四区| 欧美日韩大片在线观看| 都市激情亚洲色图| 日韩精品视频久久| 久久综合视频网| 亚洲自拍偷拍视频| 91精品国产高清一区二区三蜜臀| 欧美一区二区三区视频免费播放| 91免费国产精品| 日本va欧美va瓶| 中文字幕综合一区| 天天做天天干天天操| 国产一区二区三区在线观看免费| 亚洲人成网在线播放| 日本激情视频在线播放| 国产高清视频一区| 337p亚洲精品色噜噜噜| 国产成人精品久久| 在线观看的毛片| www.日韩高清| 精品视频一区二区不卡| 日本免费一区二区三区视频观看 | 日本一区网站| 亚洲天堂日韩av| 福利视频第一区| 成人在线一区二区| 日韩av一级大片| 国精产品一区一区三区免费视频| 一级黄色片在线播放| 色综合久久66| 日本午夜精品理论片a级appf发布| 99re6这里有精品热视频| 九九热精品免费视频| 97精品国产露脸对白| 亚洲人精选亚洲人成在线| 亚洲小视频网站| 一区二区三区精彩视频| 9人人澡人人爽人人精品| 日韩大片在线观看视频| 欧美亚洲一二三区| 日本成人三级电影网站| 欧美成人三级在线播放| 国产黄人亚洲片| 欧美尤物巨大精品爽| 久久久久久久久久91| 亚洲第一主播视频| 欧美不卡三区| 日韩专区第一页| 国产成人激情视频| 懂色av粉嫩av浪潮av| 国产精品一区二区三区网站| 一区二区欧美久久| www.se五月| 久久综合视频网| 91精品在线一区| 亚洲精品在线观看av| 欧美乱熟臀69xxxxxx| 九九九九免费视频| caoporn国产精品| 成人黄色片在线| 天天做天天爱夜夜爽| 91精品国产综合久久精品麻豆| 欧美久久久久久久久久久久久 | 天天综合天天色| 中文字幕在线亚洲| 久久黄色小视频| 日韩av网址在线| 欧美无人区码suv| 玉足女爽爽91| 超碰97在线看| 国产亚洲一本大道中文在线| 日韩欧美视频一区二区| 日韩av电影一区| 亚洲va久久久噜噜噜| 日本高清视频在线| 欧美亚洲一级片| 婷婷激情五月综合| 欧美在线精品免播放器视频| 欧美一级性视频| 欧美风情在线观看| 日本一卡二卡在线播放|