色综合中文综合网_性猛交娇小69hd_久久精品99久久久久久_欧美日韩精品一区二区三区四区 _97视频色精品_国产高清精品久久久久_日日鲁鲁鲁夜夜爽爽狠狠视频97 _国产成人免费视频精品含羞草妖精 _熟女少妇在线视频播放_精品人妻一区二区三区麻豆91 _久久女同性恋中文字幕_一区二区福利视频

模塊化大模型來了!IBM公開WastonX核心架構(gòu)技術(shù)細節(jié)

增加模塊就能學(xué)新語言

允中 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI

大型語言模型(LLMs)的性能非常強大,但是現(xiàn)有的模型訓(xùn)練和部署成本都很高。而且在不忘記先前知識的前提,擴展它們?nèi)W(xué)習(xí)新的知識也很困難。也很難針對特定的任務(wù)去提取出輕量化的模型。

最近,來自MIT-IBM Waston AI Lab、清華大學(xué)、Mila的研究人員聯(lián)合提出了一種新的神經(jīng)網(wǎng)絡(luò)架構(gòu)ModuleFormer,利用模塊化來大幅提高大型語言模型的效率和靈活性。

ModuleFormer是一種基于稀疏專家混合(SMoE)的模塊化架構(gòu),包括兩種不同類型的模塊,即新的stick-breaking注意力專家模塊和傳統(tǒng)的MLP專家模塊。在訓(xùn)練和推理過程中,根據(jù)輸入的向量,不同的模塊會被稀疏地激活。

與之前基于SMoE的模塊化語言模型不同,ModuleFormer可以通過其新的負載平衡(load balance)和負載集中(load concentration)損失函數(shù)從未經(jīng)篩選的數(shù)據(jù)中誘導(dǎo)出模塊化。

在實驗中,團隊發(fā)現(xiàn)模塊化架構(gòu)使得大型預(yù)訓(xùn)練語言模型具備了三個重要的能力:

1)效率

因為ModuleFormer只對每個輸入只激活一小部分模塊,因此可以以兩倍以上的吞吐量達到與常規(guī)語言模型相同的性能。

2)可擴展性

實驗表明,由于微調(diào)階段ModuleFormer只需要更新一部分的模塊,因此比常規(guī)語言模型更不容易發(fā)生災(zāi)難性遺忘,并且可以輕松通過新的模塊擴展以學(xué)習(xí)訓(xùn)練數(shù)據(jù)中不包含的新知識。

3)模塊特異化和篩選

在微調(diào)階段ModuleFormer,新提出的負載集中損失函數(shù)可以自動篩選一部分模塊,讓它們專注于目標(biāo)任務(wù),而與任務(wù)無關(guān)的模塊可以被直接拋棄掉以實現(xiàn)輕量化部署。

導(dǎo)言

盡管現(xiàn)代大型語言模型(LLM)在某些任務(wù)上取得了顯著的成果,甚至超過了人類的表現(xiàn),但其效率和靈活性仍然不高。

大多數(shù)LLM(例如Llama,F(xiàn)alcon)在推理和訓(xùn)練過程中都使用了它們的全部參數(shù),我們稱這些模型為密集模型。

然而,先前的研究已經(jīng)表明,在執(zhí)行任何特定任務(wù)時,神經(jīng)模型中的大部分參數(shù)都可以在不影響模型性能的前提下被剪枝掉。

此外,一旦訓(xùn)練完成,LLM就會“定格在某個時間點”,但許多實際應(yīng)用情況要求LLM具有最新的知識。因此模型進行continue leanring的擴展能力也十分重要。

隨著模型規(guī)模的增長,為了領(lǐng)域適應(yīng)或持續(xù)學(xué)習(xí)而對整個模型進行微調(diào)變得代價高昂且計算資源受限,這使得那些計算預(yù)算較小的用戶無法實施。同時,更新所有參數(shù)也使得模型容易遭受災(zāi)難性遺忘(catastrophic forgetting)。

為此,像LoRA這樣僅更新一小部分原始參數(shù)修正量的輕量級適應(yīng)方法正在變得流行。

然而實驗表明,這種方法仍然可能遭受災(zāi)難性遺忘影響,并且LoRA并不擅長需要模型學(xué)習(xí)大量新知識的場景,比如讓模型學(xué)習(xí)一種新的語言。

文章作者認為模塊化是解決前述問題的一個好方法。模塊化模型具有以下幾個優(yōu)點:

  • 模型可以在輸入或任務(wù)上激活一組模塊條件,從而比密集激活整個模型需要更少的計算量;
  • 在給定領(lǐng)域或任務(wù)的情況下,可以組裝一組與領(lǐng)域/任務(wù)相關(guān)的模塊,形成一個新的輕量級模型;
  • 模型可以輕松添加新的模塊進行領(lǐng)域適應(yīng)或持續(xù)學(xué)習(xí);
  • 模型可能更不容易發(fā)生災(zāi)難性遺忘,因為只有與輸入相關(guān)的模塊在模型微調(diào)期間進行更新。

這篇論文提出了一種新的模塊化架構(gòu),ModuleFormer(圖1a),以及在其中進行模塊操作的方法。ModuleFormer每層包含一個組前饋神經(jīng)網(wǎng)絡(luò)(MLP)專家模塊和一組新提出的Stickbreaking注意力專家模塊。

為了平衡在訓(xùn)練過程中不同模塊的負載,作者提出了一種新的互信息損失函數(shù)。此外,文章還展示了如何在ModuleFormer中插入新模塊(圖1b)和進行模塊修剪(圖1c)。

為了實現(xiàn)模塊修建,文章引入了一種新的負載集中損失函數(shù),用于在微調(diào)的過程中自動選擇最適合執(zhí)行給定任務(wù)的模塊,同時通過微調(diào)進一步增強了這些模塊執(zhí)行該任務(wù)的能力。

圖1

實驗結(jié)果顯示ModuleFormer相對于密集模型在以下方面有顯著的提升:

  • 由于稀疏的模塊激活機制(圖1a)它在更低的延遲(50%)和更小的內(nèi)存占用下實現(xiàn)了與密集LLM相同的性能,因此ModuleFormer可以實現(xiàn)密集模型兩倍的吞吐量。
  • 在對新領(lǐng)域進行微調(diào)后,它收到災(zāi)難性遺忘的影響較低,并且也可以輕松地通過添加新模塊來學(xué)習(xí)新語言和知識。(圖1b)。
  • 它可以在下游任務(wù)上進行微調(diào),將一部分模塊特異化成為處理該任務(wù)專用的模塊,而未使用的模塊可以被扔掉而不會犧牲模型在該任務(wù)上的性能(圖1c)。

詳解ModuleFormer模型

Sparse Mixture of Experts(SMoE)的基本結(jié)構(gòu)

SMoE最早由Shazeer在《Outrageously large neural networks: The sparsely-gated mixture-of-experts layer》一文中提出。

每個SMoE層包含一組用于處理輸入產(chǎn)生輸出的專家模塊m_1, m_2, …, m_n,以及一個用于挑選專家的路由函數(shù)g。在本篇文章中,路由函數(shù)由一個一層的神經(jīng)網(wǎng)絡(luò)來建模:

在給定一個輸入向量x之后,路由函數(shù)g會計算一個專家模塊的概率分布g(m|x),然后模型會自動選擇分布中前top k的專家模塊來處理輸入x。SMoE層的輸出就是專家模塊的輸出通過對應(yīng)的路由概率家和得到:

其中不再topk內(nèi)的專家模塊不會被計算,同時對應(yīng)的概率g也會被用0替代。

在ModuleFormer中,作者使用了兩種不同的專家模塊來分別構(gòu)建傳統(tǒng)transformer解碼器中的自注意力層(self attention)和前饋層(MLP)。其中前饋層的專家模塊和常見的SMoE專家模塊一致,是一個單一隱藏層的全連通神經(jīng)網(wǎng)絡(luò)。而自注意力層的專家模塊則是一個新提出的stick-breaking注意力模塊。

Stick-Breaking注意力模塊

Stick-Breaking自注意力是設(shè)計用于取代Transformer解碼器的自注意力層,使用狄利克雷過程中的Stick-Breaking(折棍子)過程對每個字符xt與之前的字符x<t之間的注意力分布進行建模,而不是標(biāo)準(zhǔn)自注意力層中的softmax函數(shù)。

Stick-Breaking自注意力的優(yōu)勢在于它會自動關(guān)注最近的相關(guān)字符,而不需要引入額外的位置信息,比如position embedding和relative position bias。

給定一個包含 t 個時間步的輸入向量序列 x1, x2, …, xt,每個輸入被投影到一系列key向量 k1, k2, …, kt 和一系列value向量 v1, v2, …, vt。為了計算時間 t 的注意力,輸入 x_t 被投影到一個查詢向量 q_t = W_q x_t,其中 W_q 是查詢投影矩陣。對于所有之前的步驟和當(dāng)前步驟 i ≤ t,計算時間步 i 的鍵與時間步 t 的查詢匹配的概率:

需要注意的是,這個查詢概率使用了sigmoid激活函數(shù),所以沒有歸一化。接下來通過stick-breaking過程來對查詢概率進去歸一化:

這樣,注意力就會自動分配給離t時刻最近,且具有較大查詢概率的時刻。使得自注意力機制在沒有額外的位置信息的情況下,也能對于相對位置進行有效的建模。最終,自注意力模塊的輸出是由注意力權(quán)重對歷史的value向量進行加和并且投影得到:

ModuleFormer中的模塊控制

預(yù)訓(xùn)練中的負載均衡

為了避免SMoE反復(fù)使用相同的模塊并浪費其他模塊的額外容量,一般采用負載平衡損失函數(shù)來調(diào)節(jié)每個專家的使用頻率。與之前的SMoE模型 不同,團隊希望最大化輸入字符和模塊之間的互信息(MI):

為了簡化起見,假設(shè)在批次X中的令牌分布是均勻的,因此p(x) = 1/X。在去除所有常數(shù)成分后,可以簡化互信息損失(公式6)為p(m)的熵與p(m | x)的條件熵之間的差異。

在上述內(nèi)容中,p(m) = sum_x(g(m|x)p(x)),其中p(x)是批處理中每個字符的概率,H(m)是模塊分布的邊際熵,H(m | x)是模塊在給定輸入字符x的條件下的熵,|X |是輸入字符的數(shù)量。對于長度為T的batch大小為B的小批量,字符的數(shù)量是|X | = BT,字符的概率是p(x) = 1/|X |。

直觀地說,互信息損失最大化了模塊的概率分布的邊際熵,并最小化了給定輸入x的模塊條件分布的商。它平衡了整個batch中每個專家的負載(最大化H(m)),同時也鼓勵每個輸入x將其路由概率集中在較少的模塊上(最小化H(m | x))。

微調(diào)中的負載集中

盡管團隊希望在預(yù)訓(xùn)練期間最大限度地利用每個專家的能力,但在微調(diào)期間希望將少量的模塊專注于下游任務(wù)。這樣可以移除未使用的模塊并減少微調(diào)后模型的參數(shù)數(shù)量。為了將負載集中在較少的模塊上,團隊引入了一個新的負載集中損失函數(shù)來最小化模塊的邊際熵:

這樣可以鼓勵模型使用更少的模塊來處理下游任務(wù)。在微調(diào)后,可以計算在訓(xùn)練或驗證集上使用的模塊頻率f_m。f_m代表了模塊m對于這個任務(wù)的重要性,可以通過移除f_m小于某個特定閾值的專家來輕松實現(xiàn)模型剪枝。

用新的模塊來學(xué)習(xí)新的知識

對于模塊化模型來說,插入新模塊是一種直接且參數(shù)高效的方法,可以在不對整個模型進行微調(diào)的情況下學(xué)習(xí)新知識。當(dāng)向每一層插入N_new個隨機初始化的模塊時,還需要擴展路由器(方程2中的A)中的模塊嵌入層A,使其包含一個形狀為(N_new,D_rtr)的新矩陣A’。因此,

新的路由函數(shù)可以寫成:

由于在微調(diào)期間其他的模塊參數(shù)被凍結(jié),因此使用新模塊進行持續(xù)學(xué)習(xí)可以在很大程度上避免災(zāi)難性遺忘問題。

然而,災(zāi)難性遺忘仍然可能影響路由函數(shù)。當(dāng)新模塊在一個新領(lǐng)域進行訓(xùn)練時,如果路由函數(shù)錯誤地將來自舊領(lǐng)域的輸入路由到新專家,模型可能會遭受災(zāi)難性遺忘。

為了避免這種情況,團隊對路由函數(shù)進行了正則化以避免災(zāi)難性遺忘,并提出了兩種訓(xùn)練策略:

1)全面微調(diào)路由,公式9中A和B使用預(yù)訓(xùn)練參數(shù)進行初始化,而A’則是隨機初始化的。這個策略是為了訓(xùn)練數(shù)據(jù)中同時包含新舊數(shù)據(jù)的情況設(shè)計。

2)只訓(xùn)練A’,這個策略是為了連續(xù)學(xué)習(xí)(lifelong learning)的情況而設(shè)計的,不使用以前訓(xùn)練過的數(shù)據(jù)。由于這種情況可能導(dǎo)致新的模塊使用頻率過高,從而帶來災(zāi)難性遺忘。團隊引入了正則項來限制A’的范數(shù):

與被指出存在缺陷的傳統(tǒng)連續(xù)學(xué)習(xí)正則化方法(如衰減或L2損失)不同,路由正則化不限制專家的能力,而只限制對新專家的使用趨勢。

評估

基于ModuleFormer,研究者在Pile數(shù)據(jù)集上預(yù)訓(xùn)練了三個不同體積和計算量的ModuleFormer Language Model(MoLM)語言模型:

基礎(chǔ)性能評估

團隊使用Language Model Evaluation Harness來評估零樣本、少樣本和語言建模任務(wù)中的語言模型。

對于零樣本和少樣本任務(wù),目標(biāo)是在給定上下文的基礎(chǔ)上從一組給定選項中選擇最合適的完成部分。最終選擇在給定上下文下具有最高可能性的完成部分。

對于語言建模,在Wikitext數(shù)據(jù)集上進行測試。目標(biāo)是最小化下一個標(biāo)記預(yù)測的困惑度。

對于代碼生成,在HumanEval數(shù)據(jù)集上評估模型。HumanEval包含164個手寫的Python編程問題。模型需要根據(jù)任務(wù)描述提示完成一個函數(shù),以便能夠通過所有提供的測試案例。

表2和表3顯示了MoLM和基準(zhǔn)語言模型在常識推理、閉卷問答和代碼生成基準(zhǔn)上的性能。

總體而言,MoLM-4B-K2模型的性能與大約13億參數(shù)的稠密模型相當(dāng),MoLM-4B-K4和MoLM-8B-K2模型的性能與大約27億參數(shù)的稠密模型相當(dāng)。

由于其稀疏計算結(jié)構(gòu),MoLM處理每個字符的激活參數(shù)僅(等同于計算量)相當(dāng)于同等性能稠密模型的約25%。因此,它減少了50%的延遲,同時具有較低的內(nèi)存使用峰值,并在GPU內(nèi)存完全占用時將吞吐量提高了2倍。

通過增加模塊學(xué)習(xí)新語言

在本節(jié)中,我們測試了模型學(xué)習(xí)新語言的能力。主要研究兩種實驗設(shè)置:連續(xù)聯(lián)合預(yù)訓(xùn)練(continual joint pre-training)和連續(xù)終身預(yù)訓(xùn)練(continual lifelong pre-training)。

它們的區(qū)別在于是否有英文文本的存在。對于這兩種設(shè)置,我們通過在CC-100語料庫上進行語言模型任務(wù),不斷地對ModuleFormer和GPT-Neo進行預(yù)訓(xùn)練。為了評估質(zhì)量,我們采用了由XGLM和mGPT引入的0-shot方法的mLAMA基準(zhǔn)測試。

持續(xù)聯(lián)合預(yù)訓(xùn)練:在這部分中,我們對聯(lián)合訓(xùn)練的模型進行持續(xù)預(yù)訓(xùn)練。具體而言,我們混合了英語和一種新語言來構(gòu)建一個新的訓(xùn)練語料庫,并保持嵌入層可訓(xùn)練。聯(lián)合訓(xùn)練[Caruana, 1997]是一種眾所周知的多任務(wù)學(xué)習(xí)方法,展示了對舊任務(wù)和新任務(wù)的熟練掌握。然而,它經(jīng)常在不同任務(wù)之間產(chǎn)生負面干擾。

表4顯示了持續(xù)訓(xùn)練模型獲得的結(jié)果。表格揭示了以下發(fā)現(xiàn):

1)我們觀察到稀疏模型在Fully Tuned的情況下經(jīng)歷較少干擾,最終得到了最好的的性能;
2)ModuleFormer通過增加模塊(Insert New Expert)的能力,比之前的LoRA方法展示出了更好的少量參數(shù)(Parameter Efficient)調(diào)優(yōu)的能力。這些結(jié)果表明,稀疏架構(gòu)帶來了更強的抗遺忘能力。

持續(xù)終身預(yù)訓(xùn)練:對于這個實驗設(shè)定,模型僅在新語言文本上進行訓(xùn)練。Abraham和Robins [2005] 提出了穩(wěn)定性-可塑性困境,這解釋了模型面臨的一個困難挑戰(zhàn):
1)模型應(yīng)具有較高的可塑性以學(xué)習(xí)新語言,
2)模型必須具有出色的穩(wěn)定性,考慮到在眾多的訓(xùn)練迭代中不會接觸到任何英語標(biāo)記。

表5顯示了LoRA基準(zhǔn)和我們的方法在不同的路由正則化損失權(quán)重下的結(jié)果。我們的ModuleFormer借助路由正則化損失表現(xiàn)出了強大的平衡穩(wěn)定性和可塑性的能力。

當(dāng)我們通過增加損失權(quán)重來限制新專家的使用時,模型獲得了穩(wěn)定性,但可塑性下降。相比之下,使用LoRA對GPT-Neo進行微調(diào)在穩(wěn)定性和可塑性方面都落后。

相比于1.33億可訓(xùn)練參數(shù)的高秩LoRA,低秩LoRA(減少訓(xùn)練參數(shù)到2400萬)和基本正則化都無法改善穩(wěn)定性。

微調(diào)和壓縮模型

在本節(jié)中,我們展示了ModuleFormer中的模塊可以被快速移除,以創(chuàng)建一個在尺寸上更小但性能不受損的任務(wù)專用模型。

我們首先從GitHub-code-clean數(shù)據(jù)集中創(chuàng)建了一個包含150億個字符的子集,該子集只包含Python代碼。然后,我們使用負載集中損失函數(shù)(權(quán)重為0.001)對MoLM-4B-K2模型在該數(shù)據(jù)集上進行精調(diào)。

在精調(diào)之后,我們在從精調(diào)數(shù)據(jù)集中隨機抽樣的小型評估集上,計算每個專家的激活頻率,然后通過將每層除以層內(nèi)最大頻率來進行歸一化。之后,我們設(shè)定一個閾值τ,并修剪了所有歸一化頻率低于該閾值的模塊。

我們在HumanEval數(shù)據(jù)集上測試了我們修剪后的MoLM-4B-K2模型。

圖2a說明了pass@k指標(biāo)與剩余參數(shù)比例之間的相關(guān)性。圖2b展示了剩余參數(shù)比例與閾值之間的關(guān)聯(lián)。我們觀察到:

1)修剪不必要的模塊對結(jié)果影響不大。我們可以修剪40%至50%的參數(shù)而不犧牲性能。相反,適當(dāng)?shù)男藜簦?3%)使精調(diào)后的模型在任務(wù)上表現(xiàn)更好。

2)模塊分布存在顯著差異,大約有一半的模塊的激活頻率低于最常使用的專家的0.3%。這個結(jié)果顯示了負載集中損失函數(shù)的有效性。

總結(jié)

在這篇論文中,我們提出了一種新的模塊化架構(gòu)ModuleFormer,以及與之相關(guān)的模塊操作方法。

ModuleFormer包括幾個新組件:新的Stickbreaking注意力機制、新的互信息負載平衡損失函數(shù)用于預(yù)訓(xùn)練,以及新的負載集中損失函數(shù)用于微調(diào)。

基于ModuleFormer,我們預(yù)訓(xùn)練了一個新的語言模型MoLM。我們的實驗結(jié)果顯示了MoLM的相對于稠密LLM展現(xiàn)出了一些新的能力:

1)它在更低的延遲(50%)和更小的內(nèi)存占用下實現(xiàn)了與密集LLM相同的性能;從而提高了吞吐量超過2倍;

2)在對整個模型進行微調(diào)以適應(yīng)新領(lǐng)域后,它對災(zāi)難性遺忘的魯棒性較強,并且也可以輕松擴展以學(xué)習(xí)新的語言和知識;

3)它可以在下游任務(wù)上進行微調(diào),以使一部分模塊專注于任務(wù),并且未被任務(wù)使用的模塊可以被修剪而不影響性能。

論文地址:
https://arxiv.org/abs/2306.04640

版權(quán)所有,未經(jīng)授權(quán)不得以任何形式轉(zhuǎn)載及使用,違者必究。
成人激情黄色网| 成人性视频网站| 日韩欧美一级二级| 日本黄网免费一区二区精品| 水蜜桃在线免费观看| www.色就是色| 国产福利视频导航| 欧美黄色一级大片| 国产一区二区三区在线观看精品| 精品日韩欧美| 99精品免费在线观看| 中文字幕在线一| 夫妻av一区二区| 欧美性猛交xxxx黑人| 999日本视频| 久久99国内精品| 亚洲欧洲精品一区| 成人夜色视频网站在线观看| 极品尤物一区二区三区| 一二三区中文字幕| 国产精品视频你懂的| 日韩av免费在线| 一级片视频免费观看| 青青草华人在线视频| 国产日产亚洲系列最新| 97国产精品视频| 91精品人妻一区二区| 日韩电影在线一区二区| 亚洲精品之草原avav久久| 亚洲欧美国产另类| 国产成人精品视频免费看| av在线网站观看| 一级黄色免费毛片| 国产探花在线观看视频| 国产精品探花一区二区在线观看| 中国黄色a级片| 久久天堂电影网| 国产麻豆9l精品三级站| 久久久久久久久久久福利| 亚洲国产精品成人久久综合一区| 欧美成人免费全部| 亚洲国产婷婷香蕉久久久久久| 欧美精品三级在线观看| 亚洲成人a级网| 午夜精品在线视频| 成人欧美一区二区三区在线观看| 欧美精品免费观看二区| 女人扒开屁股爽桶30分钟| 少妇精品一区二区| 制服丝袜在线一区| 精品一区二区在线观看| 亚洲欧美日韩中文播放| 91精品国产91久久久久久一区二区| 国产一区二区在线观看免费播放| 天天看片中文字幕| 国产精品人妖ts系列视频| 欧美在线日韩在线| 91麻豆精品国产无毒不卡在线观看| 精品亚洲男同gayvideo网站| 国产美女搞久久| 99蜜桃臀久久久欧美精品网站| 欧美自拍丝袜亚洲| 久久99精品久久久久久秒播放器 | 少妇视频在线播放| 日韩精品国产一区| 国内视频一区二区| 农村妇女精品一二区| 丝袜美腿小色网| 精品国产免费观看| 99久久精品久久久久久清纯| 国产女同性恋一区二区| 偷拍日韩校园综合在线| 中文字幕欧美日韩在线| 无码免费一区二区三区免费播放| 美女黄色一级视频| 亚洲AV成人无码一二三区在线| 成人免费视频国产在线观看| 日韩欧美亚洲一区二区| 亚洲最大福利视频| 国产欧美视频一区| 久久亚洲精品伦理| 欧美亚洲国产bt| 免费看日韩毛片| 性插视频在线观看| 国产精品久久久久久久久久免费看 | 日韩免费av片在线观看| 中文字幕在线观看一区| 精品国产精品一区二区夜夜嗨| 国产国语videosex另类| 北条麻妃在线一区| 亚洲免费成人在线| 亚洲人精品午夜在线观看| 老熟妇一区二区三区| 五月婷婷在线播放| 欧美精品免费视频| 欧美日韩一区二区视频在线| 久久丫精品久久丫| 亚洲免费在线视频| 69174成人网| 欧美精品久久久久性色| 国产精品美女www爽爽爽| 国产精品国产三级国产专播精品人| 亚洲精品成人在线播放| 精油按摩中文字幕久久| 精品国产区一区二区三区在线观看| 美女av免费在线观看| 久久这里只有| 久久在精品线影院精品国产| 中文字幕一二三| 免费av网站观看| 精品国产露脸精彩对白| 国精产品一区一区三区视频| 巨乳诱惑日韩免费av| 免费97视频在线精品国自产拍| youjizz.com日本| 亚洲免费在线观看视频| 国产免费成人av| 国产精品老熟女一区二区| 色999日韩国产欧美一区二区| 日本福利视频导航| 看片的网站亚洲| 欧美激情性做爰免费视频| 久久精品三级视频| 午夜激情一区二区| 青草青青在线视频| 丁香婷婷综合激情五月色| 欧美黄色www| 成人午夜视频在线播放| 亚洲精品在线视频| 99久久人妻无码中文字幕系列| 一区二区在线观看免费视频播放 | 欧美午夜视频一区二区| 欧美色图另类小说| 香蕉视频黄色片| 欧美与欧洲交xxxx免费观看| 精品国产免费观看| 久久97精品久久久久久久不卡| 色婷婷在线视频观看| 亚洲精品久久7777777| 国产熟女一区二区| 欧美日韩激情在线| 北条麻妃在线视频观看| 欧美国产乱子伦 | 国产精品美女久久久久aⅴ国产馆| 日韩精品国内| 日本一二三不卡| 久久综合九色综合88i| 白白色 亚洲乱淫| 青青草原成人网| 91福利视频网站| 免费黄色在线网址| 久久国产精品亚洲| 中文字幕不卡每日更新1区2区| 貂蝉被到爽流白浆在线观看| 精品久久久久香蕉网| 欧美日韩在线国产| 国语自产精品视频在线看抢先版图片 | 欧美日韩三区四区| 综合激情成人伊人| www.四虎在线| 亚洲国产成人精品电影| 日日噜噜噜噜人人爽亚洲精品| 久久精品在线视频| 高清毛片aaaaaaaaa片| 国语精品免费视频| 国产精品拍天天在线| 亚洲综合欧美在线| 日韩精品有码在线观看| 亚洲一区中文字幕在线| 国产www精品| 99国产一区二区三精品乱码| 欧美三级午夜理伦三级| 日韩欧美在线视频| 五月天丁香激情| 911国产网站尤物在线观看| 国产精品毛片一区视频播| 国产成人精品免费视频| 成人三级在线视频| 日本黄色大片在线观看| 超薄丝袜一区二区| 懂色av一区二区三区免费观看| 欧美精品123| 欧美三级在线看| 日韩精品1区2区| 玛丽玛丽电影原版免费观看1977| 亚洲第一av色| 免费视频久久久| 午夜精品一区二区在线观看| 欧美日韩久久久久久| 中文字幕免费高清网站| 男女激烈动态图| 日韩福利在线播放| 老司机亚洲精品| 福利视频免费在线观看| 精品免费国产一区二区三区四区| 天堂网在线观看视频| 亚洲av毛片在线观看| 久久在线观看视频| 久久国产精品免费| 国产麻豆天美果冻无码视频| 久久久97精品| 国产精品色午夜在线观看| 成人天堂噜噜噜| 精品人伦一区二区三区| 亚洲一区美女视频在线观看免费| 欧美激情综合五月色丁香小说| 久章草在线视频| 精品国产乱码久久久久夜深人妻| 精品人妻在线视频| 日韩欧美三级电影| 国产精品久久久久久久久久免费 | 精品久久久久久久久久久久久久| 亚洲黄色一区二区| 女人扒开屁股爽桶30分钟| 日韩在线观看网址| 一区二区三区加勒比av| 国产成人手机在线| 欧美自拍偷拍网| 亚洲不卡中文字幕无码| 91日本在线观看| 亚洲国产99精品国自产| 久久久久国产免费免费| 日韩精品一区二区av| 欧美性大战久久久久xxx| 欧美少妇性生活视频| 少妇伦子伦精品无吗| 可以在线看的黄色网址| 国产黄页在线观看| 中文精品视频一区二区在线观看| 国产精品视频xxx| 亚洲国产一区自拍| 日韩一级黄色大片| 日韩欧美亚洲成人| www.五月激情| 久久精品视频18| 欧美精品色婷婷五月综合| 官网99热精品| 欧洲日本亚洲国产区| 欧美视频在线播放| 国产精品理论片在线观看| 日本欧美一区二区三区乱码 | 欧美极品美女视频| 国产成人a级片| 天天射天天操天天干| 日韩一卡二卡在线观看| 污视频在线观看免费网站| 婷婷五月色综合| 国产精品一 二 三| 99热国产免费| 91精品国产99久久久久久红楼| 成人444kkkk在线观看| 欧美午夜性色大片在线观看| 91麻豆国产自产在线观看| 黄一区二区三区| 日韩激情视频在线观看| 欧美亚洲精品在线观看| 亚洲AV无码国产精品午夜字幕| 亚洲成人网在线播放| 黄色片视频在线播放| 91精品国产91久久久久麻豆 主演| 国产精品国产三级国产aⅴ浪潮| 91精品国产91久久久久久吃药| 精品福利视频一区二区三区| 欧美一区二区三区免费观看视频| 国产精品久久久久9999吃药| 国产精选一区二区三区| aaa亚洲精品一二三区| 91丨九色porny丨蝌蚪| 欧美日韩精品在线视频| 国产日产亚洲系列最新| 亚欧美一区二区三区| 人妻熟妇乱又伦精品视频| 欧美成人免费高清视频| 九九热免费在线观看| 色悠悠在线视频| 天堂网成人在线| 无码人妻丰满熟妇啪啪欧美| 欧美交换国产一区内射| 日本高清www| 精品成人av一区二区在线播放| 久草视频免费在线播放| 夜夜嗨aⅴ一区二区三区| 久久亚洲二区| 免费成人在线观看视频| 久久久久免费观看| 亚洲国产裸拍裸体视频在线观看乱了| 在线观看日韩毛片| 这里只有精品视频在线| 欧美精品一区三区| 99国精产品一二二线| 国产在线精品二区| 日本欧美精品久久久| 第一区免费在线观看| 日韩欧美在线视频播放| av免费观看在线| 紧缚捆绑精品一区二区| 亚洲免费大片在线观看| 亚洲全黄一级网站| 国产精品美女黄网| 凹凸日日摸日日碰夜夜爽1| 四虎成人免费影院| 在线观看黄网站| 高清不卡一二三区| 欧美三区在线视频| 欧美在线视频一区| 欧美激情视频免费看| www.99热| 亚洲精品国产精品国自产网站按摩| caoporn国产| 首页综合国产亚洲丝袜| av一本久道久久综合久久鬼色| 91精品蜜臀在线一区尤物| 国产成人精品久久| 十八禁视频网站在线观看| a天堂中文字幕| 国产精品久久久久久免费| 国产日韩亚洲欧美综合| 日韩一区二区福利| 天天综合五月天| 波多野结衣不卡| 久久9热精品视频| 日韩一区二区三区四区五区六区| 成人黄色中文字幕| 日本wwwwwww| 日韩精品乱码免费| 91久久精品日日躁夜夜躁欧美| 久久精品电影网站| 久久久免费视频网站| 国产三级精品三级观看| 国产xxx精品视频大全| 欧美性极品少妇精品网站| 国产日韩欧美视频| 老女人性生活视频| 国产毛片久久久久| 在线观看中文字幕不卡| 国产乱码精品一区二区三区日韩精品| 亚洲人视频在线| 麻豆精品一区二区av白丝在线 | 热久久免费视频精品| 国产无色aaa| 久久91精品国产91久久小草| 色综合天天综合| 亚洲va国产va天堂va久久| 亚洲精品在线视频播放| 韩国一区二区在线观看| 国产一区二区三区丝袜| 韩国黄色一级大片| 久久久久亚洲av无码专区| 一区二区三区在线不卡| 99九九视频| 九九精品视频免费| 成人久久18免费网站麻豆| 中文字幕欧美精品日韩中文字幕| 成人免费在线小视频| 国产毛片精品视频| 欧美激情一区二区三区在线视频观看 | 国产精品一 二 三| 在线观看av大片| 黑人与娇小精品av专区| 超碰成人在线免费观看| 中文字幕一区二区三区四区免费看| 欧美一区二区性放荡片| 日韩av一二三四| 26uuu国产电影一区二区| 亚洲自拍av在线| 久久香蕉精品视频| 欧美精品高清视频| 日本中文字幕观看| 国产精品久99| 日本xxxxx18| 蜜臀va亚洲va欧美va天堂 | 亚洲a∨日韩av高清在线观看| 日本美女bbw| 日韩一区二区在线看| 91精产国品一二三产区别沈先生| 亚洲久本草在线中文字幕| 日韩欧美在线一区二区| 玖玖视频精品| 成人免费视频网站入口| 日韩中文字幕综合| xvideos国产精品| 免费一级a毛片夜夜看| 亚洲精品久久久久久久久久久久| 欧美熟妇一区二区| 日韩你懂的在线观看| 不许穿内裤随时挨c调教h苏绵| 欧美激情综合在线| 精品国偷自产一区二区三区| 国产欧美一区视频| 欧美日韩另类综合| jlzzjlzz亚洲日本少妇| 亚洲欧洲日夜超级视频| 色网站免费观看| 亚瑟在线精品视频| www亚洲国产| 最新成人av在线| av在线免费观看国产| 国产精品乱子久久久久| 日本人视频jizz页码69| 欧美国产日韩a欧美在线观看 | 91农村精品一区二区在线| 国产经品一区二区| 成人午夜私人影院| 日本中文字幕网址| 精品毛片三在线观看| 丁香激情五月少妇| 亚洲欧美在线一区| 一区二区www| 欧美日韩一区二| 婷婷一区二区三区|