久久久精品2019中文字幕神马_欧美亚洲一区三区_欧美大人香蕉在线_精品88久久久久88久久久_中文字幕一区二区三区在线播放 _精品国产一区二区三区久久影院_欧洲av在线精品_粉嫩av一区二区三区_亚洲欧美一区二区三区极速播放_国产亚洲精品久久

首頁(yè) > 動(dòng)漫

模塊化大模型來(lái)了!IBM公開WastonX核心架構(gòu)技術(shù)細(xì)節(jié)

來(lái)源:騰訊網(wǎng) 時(shí)間:2023-06-25 11:05:41

允中 發(fā)自 凹非寺


(資料圖片)

量子位 | 公眾號(hào) QbitAI

大型語(yǔ)言模型(LLMs)的性能非常強(qiáng)大,但是現(xiàn)有的模型訓(xùn)練和部署成本都很高。而且在不忘記先前知識(shí)的前提,擴(kuò)展它們?nèi)W(xué)習(xí)新的知識(shí)也很困難。也很難針對(duì)特定的任務(wù)去提取出輕量化的模型。

最近,來(lái)自MIT-IBM Waston AI Lab、清華大學(xué)、Mila的研究人員聯(lián)合提出了一種新的神經(jīng)網(wǎng)絡(luò)架構(gòu)ModuleFormer,利用模塊化來(lái)大幅提高大型語(yǔ)言模型的效率和靈活性。

ModuleFormer是一種基于稀疏專家混合(SMoE)的模塊化架構(gòu),包括兩種不同類型的模塊,即新的stick-breaking注意力專家模塊和傳統(tǒng)的MLP專家模塊。在訓(xùn)練和推理過程中,根據(jù)輸入的向量,不同的模塊會(huì)被稀疏地激活。

與之前基于SMoE的模塊化語(yǔ)言模型不同,ModuleFormer可以通過其新的負(fù)載平衡(load balance)和負(fù)載集中(load concentration)損失函數(shù)從未經(jīng)篩選的數(shù)據(jù)中誘導(dǎo)出模塊化。

在實(shí)驗(yàn)中,團(tuán)隊(duì)發(fā)現(xiàn)模塊化架構(gòu)使得大型預(yù)訓(xùn)練語(yǔ)言模型具備了三個(gè)重要的能力:

1)效率

因?yàn)镸oduleFormer只對(duì)每個(gè)輸入只激活一小部分模塊,因此可以以兩倍以上的吞吐量達(dá)到與常規(guī)語(yǔ)言模型相同的性能。

2)可擴(kuò)展性

實(shí)驗(yàn)表明,由于微調(diào)階段ModuleFormer只需要更新一部分的模塊,因此比常規(guī)語(yǔ)言模型更不容易發(fā)生災(zāi)難性遺忘,并且可以輕松通過新的模塊擴(kuò)展以學(xué)習(xí)訓(xùn)練數(shù)據(jù)中不包含的新知識(shí)。

3)模塊特異化和篩選

在微調(diào)階段ModuleFormer,新提出的負(fù)載集中損失函數(shù)可以自動(dòng)篩選一部分模塊,讓它們專注于目標(biāo)任務(wù),而與任務(wù)無(wú)關(guān)的模塊可以被直接拋棄掉以實(shí)現(xiàn)輕量化部署。

導(dǎo)言

盡管現(xiàn)代大型語(yǔ)言模型(LLM)在某些任務(wù)上取得了顯著的成果,甚至超過了人類的表現(xiàn),但其效率和靈活性仍然不高。

大多數(shù)LLM(例如Llama,F(xiàn)alcon)在推理和訓(xùn)練過程中都使用了它們的全部參數(shù),我們稱這些模型為密集模型。

然而,先前的研究已經(jīng)表明,在執(zhí)行任何特定任務(wù)時(shí),神經(jīng)模型中的大部分參數(shù)都可以在不影響模型性能的前提下被剪枝掉。

此外,一旦訓(xùn)練完成,LLM就會(huì)“定格在某個(gè)時(shí)間點(diǎn)”,但許多實(shí)際應(yīng)用情況要求LLM具有最新的知識(shí)。因此模型進(jìn)行continue leanring的擴(kuò)展能力也十分重要。

隨著模型規(guī)模的增長(zhǎng),為了領(lǐng)域適應(yīng)或持續(xù)學(xué)習(xí)而對(duì)整個(gè)模型進(jìn)行微調(diào)變得代價(jià)高昂且計(jì)算資源受限,這使得那些計(jì)算預(yù)算較小的用戶無(wú)法實(shí)施。同時(shí),更新所有參數(shù)也使得模型容易遭受災(zāi)難性遺忘(catastrophic forgetting)。

為此,像LoRA這樣僅更新一小部分原始參數(shù)修正量的輕量級(jí)適應(yīng)方法正在變得流行。

然而實(shí)驗(yàn)表明,這種方法仍然可能遭受災(zāi)難性遺忘影響,并且LoRA并不擅長(zhǎng)需要模型學(xué)習(xí)大量新知識(shí)的場(chǎng)景,比如讓模型學(xué)習(xí)一種新的語(yǔ)言。

文章作者認(rèn)為模塊化是解決前述問題的一個(gè)好方法。模塊化模型具有以下幾個(gè)優(yōu)點(diǎn):

模型可以在輸入或任務(wù)上激活一組模塊條件,從而比密集激活整個(gè)模型需要更少的計(jì)算量;

在給定領(lǐng)域或任務(wù)的情況下,可以組裝一組與領(lǐng)域/任務(wù)相關(guān)的模塊,形成一個(gè)新的輕量級(jí)模型;

模型可以輕松添加新的模塊進(jìn)行領(lǐng)域適應(yīng)或持續(xù)學(xué)習(xí);

模型可能更不容易發(fā)生災(zāi)難性遺忘,因?yàn)橹挥信c輸入相關(guān)的模塊在模型微調(diào)期間進(jìn)行更新。

這篇論文提出了一種新的模塊化架構(gòu),ModuleFormer(圖1a),以及在其中進(jìn)行模塊操作的方法。ModuleFormer每層包含一個(gè)組前饋神經(jīng)網(wǎng)絡(luò)(MLP)專家模塊和一組新提出的Stickbreaking注意力專家模塊。

為了平衡在訓(xùn)練過程中不同模塊的負(fù)載,作者提出了一種新的互信息損失函數(shù)。此外,文章還展示了如何在ModuleFormer中插入新模塊(圖1b)和進(jìn)行模塊修剪(圖1c)。

為了實(shí)現(xiàn)模塊修建,文章引入了一種新的負(fù)載集中損失函數(shù),用于在微調(diào)的過程中自動(dòng)選擇最適合執(zhí)行給定任務(wù)的模塊,同時(shí)通過微調(diào)進(jìn)一步增強(qiáng)了這些模塊執(zhí)行該任務(wù)的能力。

△圖1

實(shí)驗(yàn)結(jié)果顯示ModuleFormer相對(duì)于密集模型在以下方面有顯著的提升:

由于稀疏的模塊激活機(jī)制(圖1a)它在更低的延遲(50%)和更小的內(nèi)存占用下實(shí)現(xiàn)了與密集LLM相同的性能,因此ModuleFormer可以實(shí)現(xiàn)密集模型兩倍的吞吐量。

在對(duì)新領(lǐng)域進(jìn)行微調(diào)后,它收到災(zāi)難性遺忘的影響較低,并且也可以輕松地通過添加新模塊來(lái)學(xué)習(xí)新語(yǔ)言和知識(shí)。(圖1b)。

它可以在下游任務(wù)上進(jìn)行微調(diào),將一部分模塊特異化成為處理該任務(wù)專用的模塊,而未使用的模塊可以被扔掉而不會(huì)犧牲模型在該任務(wù)上的性能(圖1c)。

詳解ModuleFormer模型

Sparse Mixture of Experts(SMoE)的基本結(jié)構(gòu)

SMoE最早由Shazeer在《Outrageously large neural networks: The sparsely-gated mixture-of-experts layer》一文中提出。

每個(gè)SMoE層包含一組用于處理輸入產(chǎn)生輸出的專家模塊m_1, m_2, …, m_n,以及一個(gè)用于挑選專家的路由函數(shù)g。在本篇文章中,路由函數(shù)由一個(gè)一層的神經(jīng)網(wǎng)絡(luò)來(lái)建模:

在給定一個(gè)輸入向量x之后,路由函數(shù)g會(huì)計(jì)算一個(gè)專家模塊的概率分布g(m|x),然后模型會(huì)自動(dòng)選擇分布中前top k的專家模塊來(lái)處理輸入x。SMoE層的輸出就是專家模塊的輸出通過對(duì)應(yīng)的路由概率家和得到:

其中不再topk內(nèi)的專家模塊不會(huì)被計(jì)算,同時(shí)對(duì)應(yīng)的概率g也會(huì)被用0替代。

在ModuleFormer中,作者使用了兩種不同的專家模塊來(lái)分別構(gòu)建傳統(tǒng)transformer解碼器中的自注意力層(self attention)和前饋層(MLP)。其中前饋層的專家模塊和常見的SMoE專家模塊一致,是一個(gè)單一隱藏層的全連通神經(jīng)網(wǎng)絡(luò)。而自注意力層的專家模塊則是一個(gè)新提出的stick-breaking注意力模塊。

Stick-Breaking注意力模塊

Stick-Breaking自注意力是設(shè)計(jì)用于取代Transformer解碼器的自注意力層,使用狄利克雷過程中的Stick-Breaking(折棍子)過程對(duì)每個(gè)字符xt與之前的字符x>

Stick-Breaking自注意力的優(yōu)勢(shì)在于它會(huì)自動(dòng)關(guān)注最近的相關(guān)字符,而不需要引入額外的位置信息,比如position embedding和relative position bias。

給定一個(gè)包含 t 個(gè)時(shí)間步的輸入向量序列 x1, x2, …, xt,每個(gè)輸入被投影到一系列key向量 k1, k2, …, kt 和一系列value向量 v1, v2, …, vt。為了計(jì)算時(shí)間 t 的注意力,輸入 x_t 被投影到一個(gè)查詢向量 q_t = W_q x_t,其中 W_q 是查詢投影矩陣。對(duì)于所有之前的步驟和當(dāng)前步驟 i ≤ t,計(jì)算時(shí)間步 i 的鍵與時(shí)間步 t 的查詢匹配的概率:

需要注意的是,這個(gè)查詢概率使用了sigmoid激活函數(shù),所以沒有歸一化。接下來(lái)通過stick-breaking過程來(lái)對(duì)查詢概率進(jìn)去歸一化:

這樣,注意力就會(huì)自動(dòng)分配給離t時(shí)刻最近,且具有較大查詢概率的時(shí)刻。使得自注意力機(jī)制在沒有額外的位置信息的情況下,也能對(duì)于相對(duì)位置進(jìn)行有效的建模。最終,自注意力模塊的輸出是由注意力權(quán)重對(duì)歷史的value向量進(jìn)行加和并且投影得到:

ModuleFormer中的模塊控制

預(yù)訓(xùn)練中的負(fù)載均衡

為了避免SMoE反復(fù)使用相同的模塊并浪費(fèi)其他模塊的額外容量,一般采用負(fù)載平衡損失函數(shù)來(lái)調(diào)節(jié)每個(gè)專家的使用頻率。與之前的SMoE模型 不同,團(tuán)隊(duì)希望最大化輸入字符和模塊之間的互信息(MI):

為了簡(jiǎn)化起見,假設(shè)在批次X中的令牌分布是均勻的,因此p(x) = 1/X。在去除所有常數(shù)成分后,可以簡(jiǎn)化互信息損失(公式6)為p(m)的熵與p(m | x)的條件熵之間的差異。

在上述內(nèi)容中,p(m) = sum_x(g(m|x)p(x)),其中p(x)是批處理中每個(gè)字符的概率,H(m)是模塊分布的邊際熵,H(m | x)是模塊在給定輸入字符x的條件下的熵,|X |是輸入字符的數(shù)量。對(duì)于長(zhǎng)度為T的batch大小為B的小批量,字符的數(shù)量是|X | = BT,字符的概率是p(x) = 1/|X |。

直觀地說(shuō),互信息損失最大化了模塊的概率分布的邊際熵,并最小化了給定輸入x的模塊條件分布的商。它平衡了整個(gè)batch中每個(gè)專家的負(fù)載(最大化H(m)),同時(shí)也鼓勵(lì)每個(gè)輸入x將其路由概率集中在較少的模塊上(最小化H(m | x))。

微調(diào)中的負(fù)載集中

盡管團(tuán)隊(duì)希望在預(yù)訓(xùn)練期間最大限度地利用每個(gè)專家的能力,但在微調(diào)期間希望將少量的模塊專注于下游任務(wù)。這樣可以移除未使用的模塊并減少微調(diào)后模型的參數(shù)數(shù)量。為了將負(fù)載集中在較少的模塊上,團(tuán)隊(duì)引入了一個(gè)新的負(fù)載集中損失函數(shù)來(lái)最小化模塊的邊際熵:

這樣可以鼓勵(lì)模型使用更少的模塊來(lái)處理下游任務(wù)。在微調(diào)后,可以計(jì)算在訓(xùn)練或驗(yàn)證集上使用的模塊頻率f_m。f_m代表了模塊m對(duì)于這個(gè)任務(wù)的重要性,可以通過移除f_m小于某個(gè)特定閾值的專家來(lái)輕松實(shí)現(xiàn)模型剪枝。

用新的模塊來(lái)學(xué)習(xí)新的知識(shí)

對(duì)于模塊化模型來(lái)說(shuō),插入新模塊是一種直接且參數(shù)高效的方法,可以在不對(duì)整個(gè)模型進(jìn)行微調(diào)的情況下學(xué)習(xí)新知識(shí)。當(dāng)向每一層插入N_new個(gè)隨機(jī)初始化的模塊時(shí),還需要擴(kuò)展路由器(方程2中的A)中的模塊嵌入層A,使其包含一個(gè)形狀為(N_new,D_rtr)的新矩陣A’。因此,

新的路由函數(shù)可以寫成:

由于在微調(diào)期間其他的模塊參數(shù)被凍結(jié),因此使用新模塊進(jìn)行持續(xù)學(xué)習(xí)可以在很大程度上避免災(zāi)難性遺忘問題。

然而,災(zāi)難性遺忘仍然可能影響路由函數(shù)。當(dāng)新模塊在一個(gè)新領(lǐng)域進(jìn)行訓(xùn)練時(shí),如果路由函數(shù)錯(cuò)誤地將來(lái)自舊領(lǐng)域的輸入路由到新專家,模型可能會(huì)遭受災(zāi)難性遺忘。

為了避免這種情況,團(tuán)隊(duì)對(duì)路由函數(shù)進(jìn)行了正則化以避免災(zāi)難性遺忘,并提出了兩種訓(xùn)練策略:

1)全面微調(diào)路由,公式9中A和B使用預(yù)訓(xùn)練參數(shù)進(jìn)行初始化,而A’則是隨機(jī)初始化的。這個(gè)策略是為了訓(xùn)練數(shù)據(jù)中同時(shí)包含新舊數(shù)據(jù)的情況設(shè)計(jì)。

2)只訓(xùn)練A’,這個(gè)策略是為了連續(xù)學(xué)習(xí)(lifelong learning)的情況而設(shè)計(jì)的,不使用以前訓(xùn)練過的數(shù)據(jù)。由于這種情況可能導(dǎo)致新的模塊使用頻率過高,從而帶來(lái)災(zāi)難性遺忘。團(tuán)隊(duì)引入了正則項(xiàng)來(lái)限制A’的范數(shù):

與被指出存在缺陷的傳統(tǒng)連續(xù)學(xué)習(xí)正則化方法(如衰減或L2損失)不同,路由正則化不限制專家的能力,而只限制對(duì)新專家的使用趨勢(shì)。

評(píng)估

基于ModuleFormer,研究者在Pile數(shù)據(jù)集上預(yù)訓(xùn)練了三個(gè)不同體積和計(jì)算量的ModuleFormer Language Model(MoLM)語(yǔ)言模型:

基礎(chǔ)性能評(píng)估

團(tuán)隊(duì)使用Language Model Evaluation Harness來(lái)評(píng)估零樣本、少樣本和語(yǔ)言建模任務(wù)中的語(yǔ)言模型。

對(duì)于零樣本和少樣本任務(wù),目標(biāo)是在給定上下文的基礎(chǔ)上從一組給定選項(xiàng)中選擇最合適的完成部分。最終選擇在給定上下文下具有最高可能性的完成部分。

對(duì)于語(yǔ)言建模,在Wikitext數(shù)據(jù)集上進(jìn)行測(cè)試。目標(biāo)是最小化下一個(gè)標(biāo)記預(yù)測(cè)的困惑度。

對(duì)于代碼生成,在HumanEval數(shù)據(jù)集上評(píng)估模型。HumanEval包含164個(gè)手寫的Python編程問題。模型需要根據(jù)任務(wù)描述提示完成一個(gè)函數(shù),以便能夠通過所有提供的測(cè)試案例。

表2和表3顯示了MoLM和基準(zhǔn)語(yǔ)言模型在常識(shí)推理、閉卷問答和代碼生成基準(zhǔn)上的性能。

總體而言,MoLM-4B-K2模型的性能與大約13億參數(shù)的稠密模型相當(dāng),MoLM-4B-K4和MoLM-8B-K2模型的性能與大約27億參數(shù)的稠密模型相當(dāng)。

由于其稀疏計(jì)算結(jié)構(gòu),MoLM處理每個(gè)字符的激活參數(shù)僅(等同于計(jì)算量)相當(dāng)于同等性能稠密模型的約25%。因此,它減少了50%的延遲,同時(shí)具有較低的內(nèi)存使用峰值,并在GPU內(nèi)存完全占用時(shí)將吞吐量提高了2倍。

通過增加模塊學(xué)習(xí)新語(yǔ)言

在本節(jié)中,我們測(cè)試了模型學(xué)習(xí)新語(yǔ)言的能力。主要研究?jī)煞N實(shí)驗(yàn)設(shè)置:連續(xù)聯(lián)合預(yù)訓(xùn)練(continual joint pre-training)和連續(xù)終身預(yù)訓(xùn)練(continual lifelong pre-training)。

它們的區(qū)別在于是否有英文文本的存在。對(duì)于這兩種設(shè)置,我們通過在CC-100語(yǔ)料庫(kù)上進(jìn)行語(yǔ)言模型任務(wù),不斷地對(duì)ModuleFormer和GPT-Neo進(jìn)行預(yù)訓(xùn)練。為了評(píng)估質(zhì)量,我們采用了由XGLM和mGPT引入的0-shot方法的mLAMA基準(zhǔn)測(cè)試。

持續(xù)聯(lián)合預(yù)訓(xùn)練:在這部分中,我們對(duì)聯(lián)合訓(xùn)練的模型進(jìn)行持續(xù)預(yù)訓(xùn)練。具體而言,我們混合了英語(yǔ)和一種新語(yǔ)言來(lái)構(gòu)建一個(gè)新的訓(xùn)練語(yǔ)料庫(kù),并保持嵌入層可訓(xùn)練。聯(lián)合訓(xùn)練[Caruana, 1997]是一種眾所周知的多任務(wù)學(xué)習(xí)方法,展示了對(duì)舊任務(wù)和新任務(wù)的熟練掌握。然而,它經(jīng)常在不同任務(wù)之間產(chǎn)生負(fù)面干擾。

表4顯示了持續(xù)訓(xùn)練模型獲得的結(jié)果。表格揭示了以下發(fā)現(xiàn):

1)我們觀察到稀疏模型在Fully Tuned的情況下經(jīng)歷較少干擾,最終得到了最好的的性能;

2)ModuleFormer通過增加模塊(Insert New Expert)的能力,比之前的LoRA方法展示出了更好的少量參數(shù)(Parameter Efficient)調(diào)優(yōu)的能力。這些結(jié)果表明,稀疏架構(gòu)帶來(lái)了更強(qiáng)的抗遺忘能力。

持續(xù)終身預(yù)訓(xùn)練:對(duì)于這個(gè)實(shí)驗(yàn)設(shè)定,模型僅在新語(yǔ)言文本上進(jìn)行訓(xùn)練。Abraham和Robins [2005] 提出了穩(wěn)定性-可塑性困境,這解釋了模型面臨的一個(gè)困難挑戰(zhàn):

1)模型應(yīng)具有較高的可塑性以學(xué)習(xí)新語(yǔ)言,

2)模型必須具有出色的穩(wěn)定性,考慮到在眾多的訓(xùn)練迭代中不會(huì)接觸到任何英語(yǔ)標(biāo)記。

表5顯示了LoRA基準(zhǔn)和我們的方法在不同的路由正則化損失權(quán)重下的結(jié)果。我們的ModuleFormer借助路由正則化損失表現(xiàn)出了強(qiáng)大的平衡穩(wěn)定性和可塑性的能力。

當(dāng)我們通過增加損失權(quán)重來(lái)限制新專家的使用時(shí),模型獲得了穩(wěn)定性,但可塑性下降。相比之下,使用LoRA對(duì)GPT-Neo進(jìn)行微調(diào)在穩(wěn)定性和可塑性方面都落后。

相比于1.33億可訓(xùn)練參數(shù)的高秩LoRA,低秩LoRA(減少訓(xùn)練參數(shù)到2400萬(wàn))和基本正則化都無(wú)法改善穩(wěn)定性。

微調(diào)和壓縮模型

在本節(jié)中,我們展示了ModuleFormer中的模塊可以被快速移除,以創(chuàng)建一個(gè)在尺寸上更小但性能不受損的任務(wù)專用模型。

我們首先從GitHub-code-clean數(shù)據(jù)集中創(chuàng)建了一個(gè)包含150億個(gè)字符的子集,該子集只包含Python代碼。然后,我們使用負(fù)載集中損失函數(shù)(權(quán)重為0.001)對(duì)MoLM-4B-K2模型在該數(shù)據(jù)集上進(jìn)行精調(diào)。

在精調(diào)之后,我們?cè)趶木{(diào)數(shù)據(jù)集中隨機(jī)抽樣的小型評(píng)估集上,計(jì)算每個(gè)專家的激活頻率,然后通過將每層除以層內(nèi)最大頻率來(lái)進(jìn)行歸一化。之后,我們?cè)O(shè)定一個(gè)閾值τ,并修剪了所有歸一化頻率低于該閾值的模塊。

我們?cè)贖umanEval數(shù)據(jù)集上測(cè)試了我們修剪后的MoLM-4B-K2模型。

圖2a說(shuō)明了pass@k指標(biāo)與剩余參數(shù)比例之間的相關(guān)性。圖2b展示了剩余參數(shù)比例與閾值之間的關(guān)聯(lián)。我們觀察到:

1)修剪不必要的模塊對(duì)結(jié)果影響不大。我們可以修剪40%至50%的參數(shù)而不犧牲性能。相反,適當(dāng)?shù)男藜簦?3%)使精調(diào)后的模型在任務(wù)上表現(xiàn)更好。

2)模塊分布存在顯著差異,大約有一半的模塊的激活頻率低于最常使用的專家的0.3%。這個(gè)結(jié)果顯示了負(fù)載集中損失函數(shù)的有效性。

總結(jié)

在這篇論文中,我們提出了一種新的模塊化架構(gòu)ModuleFormer,以及與之相關(guān)的模塊操作方法。

ModuleFormer包括幾個(gè)新組件:新的Stickbreaking注意力機(jī)制、新的互信息負(fù)載平衡損失函數(shù)用于預(yù)訓(xùn)練,以及新的負(fù)載集中損失函數(shù)用于微調(diào)。

基于ModuleFormer,我們預(yù)訓(xùn)練了一個(gè)新的語(yǔ)言模型MoLM。我們的實(shí)驗(yàn)結(jié)果顯示了MoLM的相對(duì)于稠密LLM展現(xiàn)出了一些新的能力:

1)它在更低的延遲(50%)和更小的內(nèi)存占用下實(shí)現(xiàn)了與密集LLM相同的性能;從而提高了吞吐量超過2倍;

2)在對(duì)整個(gè)模型進(jìn)行微調(diào)以適應(yīng)新領(lǐng)域后,它對(duì)災(zāi)難性遺忘的魯棒性較強(qiáng),并且也可以輕松擴(kuò)展以學(xué)習(xí)新的語(yǔ)言和知識(shí);

3)它可以在下游任務(wù)上進(jìn)行微調(diào),以使一部分模塊專注于任務(wù),并且未被任務(wù)使用的模塊可以被修剪而不影響性能。

論文地址:

https://arxiv.org/abs/2306.04640

相關(guān)稿件

模塊化大模型來(lái)了!IBM公開WastonX核心架構(gòu)技術(shù)細(xì)節(jié)

怎樣快速綁蝴蝶結(jié)?-每日頭條

二戰(zhàn)南斯拉夫老影片是什么_二戰(zhàn)南斯拉夫老影片|視焦點(diǎn)訊

土豆去斑的正確方法?

床墊的常見尺寸_床墊的尺寸規(guī)格有幾種

世界實(shí)時(shí):美國(guó)一火車在橋梁坍塌后落入河中 載有硫磺等危險(xiǎn)化學(xué)品

婦女節(jié)的定義是多少歲?三八婦女節(jié)所規(guī)定的年齡范圍為多少?

商丘市示范區(qū)實(shí)驗(yàn)小學(xué)開展端午節(jié)主題系列活動(dòng)-當(dāng)前熱門

每日熱點(diǎn):《人世間》狂攬五項(xiàng)大獎(jiǎng)!白玉蘭獎(jiǎng)“哈爾濱”大出風(fēng)頭

硫酸銨用途及副作用_硫酸銨用途

今日?qǐng)?bào)丨天津:戰(zhàn)高溫 保供電

每日看點(diǎn)!72億美元!伍德賽德能源集團(tuán)拿下墨西哥水域的特里昂石油項(xiàng)目

世界熱門:能進(jìn)亞洲杯4強(qiáng)?前鋒武磊艾克森,中場(chǎng)徐新王上源,門將顏駿凌

每日快看:拒絕爆冷!泰山隊(duì)6-1大勝中甲對(duì)手,挺進(jìn)足協(xié)杯16強(qiáng)

巴基斯坦取消進(jìn)口限制以滿足國(guó)際貨幣基金組織要求|全球獨(dú)家

005492基金凈值估值查詢_005492

復(fù)合不定代詞有哪些特點(diǎn)_復(fù)合不定代詞有哪些

【天天速看料】中商地產(chǎn)轉(zhuǎn)讓上海老飯店餐飲42.42%股權(quán),底價(jià)1.85萬(wàn)元

快看點(diǎn)丨姓名權(quán)的具體內(nèi)容是什么

商業(yè)秘密與技術(shù)秘密的區(qū)別是什么

每日聚焦:農(nóng)村宅基地面積標(biāo)準(zhǔn)是多少平米?

【全球快播報(bào)】隊(duì)報(bào):盧卡斯接近加盟巴黎,轉(zhuǎn)會(huì)費(fèi)為3500萬(wàn)-4000萬(wàn)歐元

環(huán)球速遞!緊盯節(jié)點(diǎn)強(qiáng)化監(jiān)督執(zhí)紀(jì) 嚴(yán)查快處糾治節(jié)日“四風(fēng)”

快資訊丨食補(bǔ)降血糖的方法 降血糖的方法

世界滾動(dòng):宋米芾歲豐帖

世界報(bào)道:全國(guó)首單“黑土地地力指數(shù)+”信貸產(chǎn)品在吉林落地

睿怎么寫好看連筆字 睿怎么寫 每日熱文

6月28日是什么日子_6月28日

產(chǎn)業(yè)互聯(lián)網(wǎng)之下,互聯(lián)網(wǎng)的變形記

視點(diǎn)!1-5月安徽省環(huán)境空氣質(zhì)量狀況如何?這三地排前三


久久久精品2019中文字幕神马_欧美亚洲一区三区_欧美大人香蕉在线_精品88久久久久88久久久_中文字幕一区二区三区在线播放 _精品国产一区二区三区久久影院_欧洲av在线精品_粉嫩av一区二区三区_亚洲欧美一区二区三区极速播放_国产亚洲精品久久
国内精品伊人久久久久av影院| 中国色在线观看另类| 欧美成人性福生活免费看| 亚洲精品日韩一| 国内成+人亚洲+欧美+综合在线| 久久久亚洲综合| 欧美精品tushy高清| av成人动漫在线观看| 男女男精品视频| 国产欧美日韩在线看| 亚洲欧美国产三级| 亚洲丝袜精品丝袜在线| 中文字幕av在线一区二区三区| 这里只有精品免费| 欧美r级电影在线观看| 91美女片黄在线观看91美女| 91蜜桃在线观看| 欧美日韩黄色一区二区| 欧美日韩精品福利| 欧美大片一区二区| 国产偷国产偷亚洲高清人白洁 | 亚洲国产精品一区二区尤物区| 2022国产精品视频| 91精品国产综合久久久久| 丰满白嫩尤物一区二区| 亚洲r级在线视频| 欧美人体做爰大胆视频| 日韩av网站在线观看| 26uuu精品一区二区三区四区在线 26uuu精品一区二区在线观看 | 日韩亚洲欧美综合| 亚洲欧洲精品天堂一级| 午夜精品福利在线| 午夜精彩视频在线观看不卡| 国产精品一区二区久久精品爱涩| 91免费看片在线观看| 日韩免费看的电影| 久久影视一区二区| 精品福利视频一区二区三区| 国产成人鲁色资源国产91色综| 久久av资源站| 国产乱人伦偷精品视频免下载| 视频一区国产视频| 久久久久综合网| av中文字幕不卡| 91麻豆6部合集magnet| 91美女片黄在线观看91美女| 亚洲国产美女搞黄色| 国产欧美日韩激情| 午夜精品久久久久久不卡8050| 亚洲成人动漫在线观看| 丝袜美腿亚洲综合| 日韩综合小视频| 日日夜夜免费精品| 国产成人在线影院 | 成人免费看的视频| 久久久综合视频| 国产精品1区2区| 国产亚洲欧美一区在线观看| 成人污视频在线观看| 久久久五月婷婷| 99久久国产综合精品女不卡| 亚洲精选视频在线| 7777精品伊人久久久大香线蕉经典版下载 | 国精产品一区一区三区mba视频| 精品成人一区二区三区四区| 韩国女主播成人在线| 中文字幕高清一区| 色视频一区二区| 狠狠色丁香九九婷婷综合五月| 精品88久久久久88久久久| 色婷婷av一区二区三区gif| 日日摸夜夜添夜夜添亚洲女人| 国产精品久久久爽爽爽麻豆色哟哟 | 色综合久久88色综合天天6 | 91精品国产美女浴室洗澡无遮挡| 亚洲女人的天堂| 91在线免费视频观看| 一级日本不卡的影视| 亚洲欧美色综合| 亚洲在线成人精品| 94色蜜桃网一区二区三区| 亚洲最新在线观看| 久久久蜜臀国产一区二区| 欧美日韩视频第一区| 国产精品一区在线观看你懂的| 丝袜亚洲另类欧美| 亚洲人妖av一区二区| 国产日韩欧美在线一区| 精品国产乱码久久久久久久| 成人国产精品免费网站| 亚洲国产三级在线| 成人免费视频app| 高清国产一区二区| 丁香六月久久综合狠狠色| 美女mm1313爽爽久久久蜜臀| 日本女人一区二区三区| 午夜精品爽啪视频| 午夜一区二区三区在线观看| 日本强好片久久久久久aaa| 欧美日韩一级视频| 91麻豆自制传媒国产之光| 日本一区中文字幕| 亚洲欧美在线观看| 欧美疯狂做受xxxx富婆| 亚洲宅男天堂在线观看无病毒| 丰满岳乱妇一区二区三区| 国产在线不卡一卡二卡三卡四卡| 亚洲人成网站色在线观看| 亚洲人成精品久久久久久| 久久精品一区四区| av在线不卡免费看| 久久久99免费| 欧美成人猛片aaaaaaa| 久久免费视频色| 日韩电影免费一区| 激情文学综合丁香| 久久精品免费观看| 亚洲蜜桃精久久久久久久| 亚洲免费观看高清在线观看| 久久久噜噜噜久久中文字幕色伊伊 | 久久久久国产精品人| 26uuu国产一区二区三区| 亚洲一二三区不卡| 色综合色综合色综合色综合色综合 | 国产高清精品网站| 欧美成人性战久久| 在线观看一区日韩| 国产精品91一区二区| 麻豆免费看一区二区三区| 亚洲精品亚洲人成人网在线播放| 欧美色综合网站| 国产美女在线观看一区| 亚洲小说春色综合另类电影| 91精品在线一区二区| 热久久久久久久| 国产精品久久久久一区二区三区 | 日本免费新一区视频| 精品日韩一区二区三区免费视频| 国内久久婷婷综合| 综合在线观看色| 精品国产髙清在线看国产毛片| 亚洲欧洲日本在线| 成人a免费在线看| 自拍偷在线精品自拍偷无码专区| 色94色欧美sute亚洲13| 精品一区二区在线观看| 亚洲青青青在线视频| 欧美成人精品1314www| 99热99精品| 成人美女视频在线看| 久久99精品国产| 日本黄色一区二区| 国产精品麻豆一区二区| 色综合久久综合网97色综合| 《视频一区视频二区| 成人激情免费视频| 中文字幕av不卡| 91精品久久久久久久91蜜桃| 精品国内二区三区| 99久久99久久精品国产片果冻| 国产亚洲精品精华液| 欧美日韩国产一级二级| 国产高清精品在线| 成人亚洲一区二区一| 国产91精品久久久久久久网曝门| 水野朝阳av一区二区三区| 国产91精品一区二区麻豆网站| 国产在线麻豆精品观看| 久久精品国产秦先生| 精品中文av资源站在线观看| 日韩国产欧美视频| 激情欧美一区二区三区在线观看| 国产成人免费视频精品含羞草妖精 | 激情丁香综合五月| 国产校园另类小说区| 337p粉嫩大胆色噜噜噜噜亚洲| 美女视频第一区二区三区免费观看网站| 久久99精品久久久久久动态图| 日韩一区二区三区视频| 亚洲电影你懂得| 久久综合久久综合久久| 成人激情av网| 中文字幕一区二区三区色视频 | 色老综合老女人久久久| 国产视频一区二区在线| 成人免费观看视频| 中文在线免费一区三区高中清不卡| 国产丝袜在线精品| 国产一区亚洲一区| 亚洲影视资源网| 国产综合色在线| 在线观看欧美精品| 91精品国产一区二区三区蜜臀 | 亚洲国产一区二区三区青草影视| 精品午夜久久福利影院| 欧美成人vps| 中文字幕精品综合| 一区二区三区av电影| 国产精品传媒视频| 一区二区三区视频在线看|