3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【NLP】Transformers 源码阅读和实践

發布時間:2025/3/12 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【NLP】Transformers 源码阅读和实践 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文主要針對HuggingFace開源的 transformers,以BERT為例介紹其源碼并進行一些實踐。主要以pytorch為例 (tf 2.0 代碼風格幾乎和pytorch一致),介紹BERT使用的Transformer Encoder,Pre-training Tasks和Fine-tuning Tasks。最后,針對預訓練好的BERT進行簡單的實踐,例如產出語句embeddings,預測目標詞以及進行抽取式問答。本文主要面向BERT新手,在閱讀本文章前,假設讀者已經閱讀過BERT原論文。

1. Core Components

Transformers: State-of-the-art Natural Language Processing

參考上面的論文,transformers開源庫的核心組件包括3個:

  • 「Con?guration」:配置類,通常繼承自「PretrainedCon?g」,保存model或tokenizer的超參數,例如詞典大小,隱層維度數,dropout rate等。配置類主要可用于復現模型。

  • 「Tokenizer」:切詞類,通常繼承自「PreTrainedTokenizer」,主要存儲詞典,token到index映射關系等。此外,還會有一些model-specific的特性,如特殊token,[SEP], [CLS]等的處理,token的type類型處理,語句最大長度等,因此tokenizer通常和模型是一對一適配的。比如BERT模型有BertTokenizer。Tokenizer的實現方式有多種,如word-level, character-level或者subword-level,其中subword-level包括Byte-Pair-Encoding,WordPiece。subword-level的方法目前是transformer-based models的主流方法,能夠有效解決OOV問題,學習詞綴之間的關系等。Tokenizer主要為了「將原始的語料編碼成適配模型的輸入。」

  • 「Model」: 模型類。封裝了預訓練模型的計算圖過程,遵循著相同的范式,如根據token ids進行embedding matrix映射,緊接著多個self-attention層做編碼,最后一層task-specific做預測。除此之外,Model還可以做一些靈活的擴展,用于下游任務,例如在預訓練好的Base模型基礎上,添加task-specific heads。比如,language model heads,sequence classi?cation heads等。在代碼庫中通常命名為,「XXXForSequenceClassification」 or 「XXXForMaskedLM」,其中XXX是模型的名稱(如Bert), 結尾是預訓練任務的名稱 (MaskedLM) 或下游任務的類型(SequenceClassification)。

另外,針對上述三大類,transformer還額外封裝了「AutoConfig, AutoTokenizer,AutoModel」,可通過模型的命名來定位其所屬的具體類,比如'bert-base-cased',就可以知道要加載BERT模型相關的配置、切詞器和模型。非常方便。通常上手時,我們都會用Auto封裝類來加載切詞器和模型。

2. Transformer-based Pre-trained model

所有已實現的Transformer-based Pre-trained models:

CONFIG_MAPPING?=?OrderedDict([("retribert",?RetriBertConfig,),("t5",?T5Config,),("mobilebert",?MobileBertConfig,),("distilbert",?DistilBertConfig,),("albert",?AlbertConfig,),("camembert",?CamembertConfig,),("xlm-roberta",?XLMRobertaConfig,),("marian",?MarianConfig,),("mbart",?MBartConfig,),("bart",?BartConfig,),("reformer",?ReformerConfig,),("longformer",?LongformerConfig,),("roberta",?RobertaConfig,),("flaubert",?FlaubertConfig,),("bert",?BertConfig,),("openai-gpt",?OpenAIGPTConfig,),("gpt2",?GPT2Config,),("transfo-xl",?TransfoXLConfig,),("xlnet",?XLNetConfig,),("xlm",?XLMConfig,),("ctrl",?CTRLConfig,),("electra",?ElectraConfig,),("encoder-decoder",?EncoderDecoderConfig,),]

上述是該開源庫實現的模型,包括了BERT,GPT2,XLNet,RoBERTa,ALBERT,ELECTRA,T5等家喻戶曉的預訓練語言模型。

下面將以BERT為例,來介紹BERT相關的源碼。建議仔細閱讀源碼中我做的一些「注釋」,尤其是「步驟的細分」。同時,關注下目錄的層次,「即:不同類之間的關系。」

2.1 BertModel Transformer

「BertModel」, The bare Bert Model transformer outputting 「raw hidden-states」 without any specific head on top。這個類的目標主要就是利用「Transformer」獲取序列的編碼向量。抽象出來的目標是為了適配不同的預訓練任務。例如:MLM預訓練任務對應的類為BertForMaskedLM,其中有個成員實例為BertModel,就是為了編碼序列,獲取序列的hidden states后,再構建MaskedLM task進行訓練或者預測。

核心構造函數和Forward流程代碼如下:

#?BertModel的構造函數 def?__init__(self,?config):super().__init__(config)self.config?=?configself.embeddings?=?BertEmbeddings(config)self.encoder?=?BertEncoder(config)self.pooler?=?BertPooler(config)self.init_weights()def?forward(self,?input_ids=None,?attention_mask=None,token_type_ids=None,????position_ids=None,?head_mask=None,?inputs_embeds=None,encoder_hidden_states=None,?encoder_attention_mask=None,output_attentions=None,?output_hidden_states=None,):#?ignore?some?code?here...#?step?1:?obtain?sequence?embedding,?BertEmbeddings?embedding_output?=?self.embeddings(input_ids=input_ids,?position_ids=position_ids,?token_type_ids=token_type_ids,?inputs_embeds=inputs_embeds)#?step?2:?transformer?encoder,?BertEncoderencoder_outputs?=?self.encoder(embedding_output,attention_mask=extended_attention_mask,head_mask=head_mask,encoder_hidden_states=encoder_hidden_states,encoder_attention_mask=encoder_extended_attention_mask,output_attentions=output_attentions,output_hidden_states=output_hidden_states,)sequence_output?=?encoder_outputs[0]#?step?3:?pooling?to?obtain?sequence-level?encoding,?BertPoolerpooled_output?=?self.pooler(sequence_output)outputs?=?(sequence_output,?pooled_output,)?+?encoder_outputs[1:]return?outputs??#?sequence_output,?pooled_output,?(hidden_states),?(attentions)

「參數如下:」

  • 「input_ids」: 帶特殊標記([CLS]、[SEP])的「token ids」序列, e.g., tensor([[ 101, 1188, 1110, 1126, 7758, 1859, 102]]), 其中101和102分別是[CLS],[SEP]對應的token id。其「shape」: ,「B」為batch size, 「S」為序列的長度,此例即:1x7。

  • 「inputs_embeds:」 和input_ids參數「二選一」。inputs_embeds代表給定了輸入tokens對應的token embeddings,比如用word2vec的word embeddings作為token embeddings,這樣就不需要用input_ids對默認隨機初始化的embedding做lookup得到token embeddings。

  • 「attention_mask」: 「self-attention使用」,可選,shape和input_ids一致。當對encoder端的序列做self-attention時,默認全為1,即都可以attend;decoder端序列做self-attention時,默認為類似下三角矩陣的形式 (對角線也為1)。

  • 「token_type_ids」: 可選,shape和input_ids一致,單語句輸入時,取值全為0;在“語句對“的輸入中,該取值為0或1,即:前一句為0,后一句為1。

  • 「head_mask」: **self-attention使用,**可選,想用哪些head,就為1或者None,不想用的head就為0。shape為[num_heads] or [num_hidden_layers x num_heads],即:可以每層每個head單獨設置mask。

  • 「position_ids」: 可選,位置id,默認就是0~S。

  • 「encoder_hidden_states/encoder_attention_mask」:decoder端對encoder端做cross-attention時使用,此時K和V即通過encoder_hidden_states得到。

其中,

  • 「Step 1」: 「獲取序列的embedding」,對應下文要介紹的「BertEmbeddings」

  • 「Step 2」: 「利用Transformer進行編碼」,對應下文要介紹的「BertEncoder」,獲取sequence token-level encoding.

  • 「Step 3」: 「對 [CLS] 對應的hidden state進行非線性變換得到」 sequence-level encoding,對應下文要介紹的「BertPooler」

2.2 BertEmbeddings

「第一步Step 1」,獲取序列的embeddings

「token embedding + position embedding + segment embedding」

embedding_output?=?self.embeddings(input_ids=input_ids,?position_ids=position_ids,?token_type_ids=token_type_ids,?inputs_embeds=inputs_embeds)?#?embeddings是BertEmbeddings類
  • 基于input_ids或者inputs_embeds獲取token embeddings。

  • 基于position_ids獲取position embeddings,此處采用的是絕對位置編碼。

  • 基于token_type_ids獲取語句的segment embeddings。

#?BertEmbeddings?core?forward?code:? def?forward(self,?input_ids=None,?token_type_ids=None,position_ids=None,?inputs_embeds=None):#?ignore?some?codes?here...#?step?1:?token?embeddingsif?inputs_embeds?is?None:inputs_embeds?=?self.word_embeddings(input_ids)?#?token?embeddings#?step?2:?position?embeddingsposition_embeddings?=?self.position_embeddings(position_ids)#?step?3:?segment?embeddingstoken_type_embeddings?=?self.token_type_embeddings(token_type_ids)embeddings?=?inputs_embeds?+?position_embeddings?+?token_type_embeddingsembeddings?=?self.LayerNorm(embeddings)embeddings?=?self.dropout(embeddings)return?embeddings

此處還做了layer_norm和dropout。輸出的embedding的shape為,。D默認為768。此處輸出的embeddings標記為。

2.3 BertEncoder

「第二步,step 2」,利用「Transformer」對序列進行編碼

#?encoder是BertEncoder類 encoder_outputs?=?self.encoder(embedding_output,?#?序列embedding,?B?x?S?x?Dattention_mask=extended_attention_mask,?#?序列self-attention時使用head_mask=head_mask,?#?序列self-attention時使用encoder_hidden_states=encoder_hidden_states,?#?decoder,cross-attentionencoder_attention_mask=encoder_extended_attention_mask,?#?cross-attentionoutput_attentions=output_attentions,?#?是否輸出attentionoutput_hidden_states=output_hidden_states)??#?是否輸出每層的hidden?state
  • 「embedding_output」:BertEmbeddings的輸出,batch中樣本序列的每個token的嵌入。

  • 「extended_attention_mask」「self-attention」使用。根據attention_mask做維度廣播,是head數量,此時,方便下文做self-attention時作mask,即:softmax前對logits作處理,「logits+extended_attention_mask」,即:attention_mask取值為1時,extended_attention_mask對應位置的取值為0;否則,attention_mask為0時,extended_attention_mask對應位置的取值為-10000.0 (很小的一個數),這樣softmax后,mask很小的值對應的位置概率接近0達到mask的目的。

  • 「head_mask」「self-attention」使用。同樣可以基于「原始輸入head_mask作維度廣播」,廣播前的shape為H or L x H;廣播后的shape為:「L x B x H x S x S」。即每個樣本序列中每個token對其他tokens的head attentions 值作mask,head attentions數量為L x H。

  • 「encoder_hidden_states」:可選,「cross-attention使用」。即:decoder端做編碼時,要傳入encoder的隱狀態,「B x S x D」

  • 「encoder_attention_mask」:可選,「cross-attention使用」。即,decoder端做編碼時,encoder的隱狀態的attention mask。和extended_attention_mask類似,「B x S。」

  • 「output_attentions」:是否輸出attention值,bool。可用于可視化attention scores。

  • 「output_hidden_states」:是否輸出每層得到的隱向量,bool。

#?BertEncoder由12層BertLayer構成 self.layer?=?nn.ModuleList([BertLayer(config)?for?_?in?range(config.num_hidden_layers)]) #?BertEncoder?Forward核心代碼 def?forward(self,?hidden_states,attention_mask=None,?head_mask=None,encoder_hidden_states=None,?encoder_attention_mask=None,output_attentions=False,?output_hidden_states=False):#?ignore?some?codes?here...all_hidden_states?=?()all_attentions?=?()for?i,?layer_module?in?enumerate(self.layer):?#?12層BertLayerif?output_hidden_states:all_hidden_states?=?all_hidden_states?+?(hidden_states,)#?step?1:?BertLayer?iterationlayer_outputs?=?layer_module(hidden_states,attention_mask,head_mask[i],encoder_hidden_states,encoder_attention_mask,output_attentions)?# BertLayer Forward,核心!!!hidden_states?=?layer_outputs[0]?#?overide?for?next?iterationif?output_attentions:all_attentions?=?all_attentions?+?(layer_outputs[1],)?#?存每層的attentions,可以用于可視化#?Add?last?layerif?output_hidden_states:all_hidden_states?=?all_hidden_states?+?(hidden_states,)outputs?=?(hidden_states,)if?output_hidden_states:outputs?=?outputs?+?(all_hidden_states,)if?output_attentions:outputs?=?outputs?+?(all_attentions,)return?outputs??#?last-layer?hidden?state,?(all?hidden?states),?(all?attentions)

2.4 BertLayer

上述代碼最重要的是循環內的「BertLayer」迭代過程,其核心代碼:

def?forward(self,?hidden_states,?attention_mask=None,?head_mask=None,encoder_hidden_states=None,?encoder_attention_mask=None,output_attentions=False,):#?step?1.0:?self-attention,?attention實例是BertAttention類self_attention_outputs?=?self.attention(hidden_states,?attention_mask,?head_mask,?output_attentions=output_attentions,)attention_output?=?self_attention_outputs[0]outputs?=?self_attention_outputs[1:]??#?add?self?attentions?if?we?output?attention?weights# step 1.1:?如果是decoder, 就作cross-attention,此時step1.0的輸出即為decoder側的序列的self-attention結果,并作為step1.1的輸入;step 1.1的輸出為decoder側的cross-attention結果, crossattention實例也是BertAttentionif?self.is_decoder?and?encoder_hidden_states?is?not?None:cross_attention_outputs?=?self.crossattention(attention_output,attention_mask,head_mask,encoder_hidden_states,encoder_attention_mask,output_attentions,)attention_output?=?cross_attention_outputs[0]outputs?=?outputs?+?cross_attention_outputs[1:]??#?add?cross?attentions?if?we?output?attention?weights#?step?2:?intermediate轉化,對應原論文中的前饋神經網絡FFNintermediate_output?=?self.intermediate(attention_output)#?step?3:?做skip-connectionlayer_output?=?self.output(intermediate_output,?attention_output)outputs?=?(layer_output,)?+?outputsreturn?outputs

其中,step 1分為了2個小步驟。如果是encoder (BERT只用了encoder),只有1.0起作用,即只對輸入序列進行self-attention。如果是做seq2seq的模型,還會用到transformer的decoder,此時1.0就是對decoder的seq做self-attention,相應的attention_mask實際上是類下三角形式的矩陣;而1.1步驟此時就是基于1.0得到的self-attention序列的hidden states,對encoder_hidden_states進行cross-attention。這是本部分的重點。

2.4.1 BertAttention

BertAttention是上述代碼中attention實例對應的類,也是transformer進行self-attention的核心類。包括了BertSelfAttention和BertSelfOutput成員。

class?BertAttention(nn.Module):def?__init__(self,?config):super().__init__()self.self?=?BertSelfAttention(config)self.output?=?BertSelfOutput(config)def?forward(self,?hidden_states,?attention_mask=None,head_mask=None,?encoder_hidden_states=None,encoder_attention_mask=None,?output_attentions=False):#?step?1:?self-attention,?B?x?S?x?Dself_outputs?=?self.self(hidden_states,?attention_mask,?head_mask,?encoder_hidden_states,?encoder_attention_mask,?output_attentions)#?step?2:?skip-connection,?B?x?S?x?Dattention_output?=?self.output(self_outputs[0],?hidden_states)outputs?=?(attention_output,)?+?self_outputs[1:]??#?add?attentions?if?we?output?themreturn?outputs
  • 「BertSelfAttention」: 是「self-attention」,BertSelfAttention可以被實例化為encoder側的self-attention,也可以被實例化為decoder側的self-attention,此時attention_mask是非空的 (類似下三角形式的mask矩陣)。同時,還可以實例化為decoder側的cross-attention,此時,hidden_states即為decoder側序列的self-attention結果,同時需要傳入encoder側的encoder_hidden_states和encoder_attention_mask來進行cross-attention。

    def?forward(self,?hidden_states,?attention_mask=None,?head_mask=None,encoder_hidden_states=None,?encoder_attention_mask=None,output_attentions=False):#?step?1:?mapping?Query/Key/Value?to?sub-space#?step?1.1:?query?mappingmixed_query_layer?=?self.query(hidden_states)?#?B?x?S?x?(H*d)#?If?this?is?instantiated?as?a?cross-attention?module,?the?keys#?and?values?come?from?an?encoder;?the?attention?mask?needs?to?be#?such?that?the?encoder's?padding?tokens?are?not?attended?to.#?step?1.2:?key/value?mappingif?encoder_hidden_states?is?not?None:mixed_key_layer?=?self.key(encoder_hidden_states)?#?B?x?S?x?(H*d)mixed_value_layer?=?self.value(encoder_hidden_states)?attention_mask?=?encoder_attention_mask?else:mixed_key_layer?=?self.key(hidden_states)?#?B?x?S?x?(H*d)mixed_value_layer?=?self.value(hidden_states)query_layer?=?self.transpose_for_scores(mixed_query_layer)?#?B?x?H?x?S?x?dkey_layer?=?self.transpose_for_scores(mixed_key_layer)?#?B?x?H?x?S?x?dvalue_layer?=?self.transpose_for_scores(mixed_value_layer)?#?B?x?H?x?S?x?d#?step?2:?compute?attention?scores#?step?2.1:?raw?attention?scores#?B?x?H?x?S?x?d???B?x?H?x?d?x?S?->?B?x?H?x?S?x?S#?Take?the?dot?product?between?"query"?and?"key"?to?get?the?raw?attention?scores.attention_scores?=?torch.matmul(query_layer,?key_layer.transpose(-1,?-2))attention_scores?=?attention_scores?/?math.sqrt(self.attention_head_size)#?step?2.2:?mask?if?necessaryif?attention_mask?is?not?None:#?Apply?the?attention?mask,?B?x?H?x?S?x?Sattention_scores?=?attention_scores?+?attention_mask#?step?2.3:?Normalize?the?attention?scores?to?probabilities,?B?x?H?x?S?x?Sattention_probs?=?nn.Softmax(dim=-1)(attention_scores)#?This?is?actually?dropping?out?entire?tokens?to?attend?to,?which?might#?seem?a?bit?unusual,?but?is?taken?from?the?original?Transformer?paper.attention_probs?=?self.dropout(attention_probs)#?Mask?heads?if?we?want?toif?head_mask?is?not?None:attention_probs?=?attention_probs?*?head_mask#?B?x?H?x?S?x?S???B?x?H?x?S?x?d?->??B?x?H?x?S?x?d#?step?4:?aggregate?values?by?attention?probs?to?form?context?encodingscontext_layer?=?torch.matmul(attention_probs,?value_layer)#?B?x?S?x?H?x?dcontext_layer?=?context_layer.permute(0,?2,?1,?3).contiguous()#?B?x?S?x?Dnew_context_layer_shape?=?context_layer.size()[:-2]?+?(self.all_head_size,)#?B?x?S?x?D,相當于是多頭concat操作context_layer?=?context_layer.view(*new_context_layer_shape)outputs?=?(context_layer,?attention_probs)?if?output_attentions?else?(context_layer,)return?outputs

    不同head均分768維度,12個head則每個為64維度;具體計算的時候合在一起,即同時算multi-head。記本步驟的輸出為: ,輸入即為hidden_states參數。

    • ?; ? ? ?,每個token根據其對序列內其它tokens的attention scores,來加權序列tokens的embeddings,得到每個token對應的上下文編碼向量。

    • reshape后的形狀為,, 。

    • : ?,「transpose_for_scores」

    • : ?

    • ,

    • , 如果是decoder側的self-attention,則logit加上預先計算好的decoder側對應的序列的每個位置的attention_mask,實際上就是下三角形式(包括對角線)的mask矩陣。

    • , :每個batch每個head內,每個token對序列內其它token的attention score。

    • 、、的shape: ? : 「<Batch Size, Seq Length, Head Num, Embedding Dimension>」,。此處D=768, H=12, d=64。

    • 「attention score計算過程:」

    • 「context_layer」: ?:

  • 「BertSelfOutput」

    • , 「self-connection」,

2.4.2 BertIntermediate

  • , , 其中, 默認值為3072,用到了gelu激活函數。

2.4.3 BertOutput

  • , ,其中,.

上述輸出作為下一個BertLayer的輸入,輸出,依次類推,進行迭代,最終輸出,即共12層BertLayer。

2.5 BertPooler

第三步,step3, 獲取sequence-level embedding。

拿到上述BertEncoder的輸出,shape為,其中每個樣本序列(S維度)的第一個token為[CLS]標識的hidden state,標識為,即:。則得到序列級別的嵌入表征:,shape為。這個主要用于下游任務的fine-tuning。

def?forward(self,?hidden_states):#?We?"pool"?the?model?by?simply?taking?the?hidden?state?corresponding#?to?the?first?token.first_token_tensor?=?hidden_states[:,?0]pooled_output?=?self.dense(first_token_tensor)pooled_output?=?self.activation(pooled_output)?##?nn.tanhreturn?pooled_output

3. Bert Pre-training Tasks

上文介紹了BERT核心的Transformer編碼器,下面將介紹Bert的預訓練任務。

3.1 BertForMaskedLM

Bert Model with 「a language modeling head」 on top。上述介紹了BertModel的源碼,BertModel主要用于獲取序列的編碼。本部分要介紹的BertForMaskedLM將基于BertModel得到的序列編碼,利用MaskedLM預訓練任務進行預訓練。

Bert主要利用了Transformer的Encoder,基于encoder得到的序列編碼進行預訓練,而MLM使得encoder能夠進行雙向的self-attention。

「BertForMaskedLM」的構造函數:

def?__init__(self,?config):super().__init__(config)assert?(not?config.is_decoder),?"If?you?want?to?use?`BertForMaskedLM`?make?sure?`config.is_decoder=False`?for?bi-directional?self-attention."?#?is_decoder為False,不需要用到decoderself.bert?=?BertModel(config)?#?BertModel進行序列編碼self.cls?=?BertOnlyMLMHead(config)?#?多分類預訓練任務,?task-specific?headself.init_weights()

核心Forward代碼:

def?forward(self,?input_ids=None,?attention_mask=None,?token_type_ids=None,position_ids=None,?head_mask=None,?inputs_embeds=None,?labels=None,encoder_hidden_states=None,?encoder_attention_mask=None,output_attentions=None,?output_hidden_states=None,**kwargs):#?step?1:?obtain?sequence?encoding?by?BertModeloutputs?=?self.bert(input_ids,attention_mask=attention_mask,token_type_ids=token_type_ids,position_ids=position_ids,head_mask=head_mask,inputs_embeds=inputs_embeds,encoder_hidden_states=encoder_hidden_states,encoder_attention_mask=encoder_attention_mask,output_attentions=output_attentions,output_hidden_states=output_hidden_states,)sequence_output?=?outputs[0]?#?B?x?S?x?D#?step?2:?output?scores?of?each?token?in?the?sequenceprediction_scores?=?self.cls(sequence_output)?#?B?x?S?x?V,?輸出詞典中每個詞的預測概率outputs?=?(prediction_scores,)?+?outputs[2:]??#?Add?hidden?states?and?attention?if?they?are?here#?step?3:?build?loss,?label,?B?x?Sif?labels?is?not?None:loss_fct?=?CrossEntropyLoss()??#?-100?index?=?padding?tokenmasked_lm_loss?=?loss_fct(prediction_scores.view(-1,?self.config.vocab_size),?labels.view(-1))?#?拍扁,?(B*S)?x?Voutputs?=?(masked_lm_loss,)?+?outputsreturn?outputs??#?(masked_lm_loss),?prediction_scores,?(hidden_states),?(attentions)

參數基本上和BertModel一模一樣,多了一個labels參數,主要用于獲取MLM loss。

其中,cls對應的「BertOnlyMLMHead」類 (其實就是類「BertLMPredictionHead」) 做的主要事情如下公式,即:MLM多分類預測任務,其中為BertModel得到的sequence-token-level encoding,shape為。

其中,,為vocab的大小。的shape為:。

特別的,label的形式:

「labels」 (torch.LongTensor of shape (batch_size, sequence_length), optional, defaults to None) – Labels for computing the masked language modeling loss. Indices should be in [-100, 0, ..., config.vocab_size] (see input_ids docstring) Tokens with indices set to -100 are ignored (masked), the loss is only computed for the tokens with labels in [0, ..., config.vocab_size]

即,不打算預測的,「label設置為-100」。一般只設置[MASK]位置對應的label,其它位置設置成-100。這樣只計算了[MASK]待預測位置的token對應的loss。-100實際上是CrossEntropyLos的ignore_index參數的默認值。

3.2 BertForPreTraining

和BertForMaskedLM類似,多了一個next sentence prediction預訓練任務。Bert Model with 「two heads on top」 as done during the pre-training: a 「masked language modeling」 head and 「a next sentence prediction」 (classification) head.

此部分對應的heads的核心代碼為:

class?BertPreTrainingHeads(nn.Module):def?__init__(self,?config):super().__init__()self.predictions?=?BertLMPredictionHead(config)self.seq_relationship?=?nn.Linear(config.hidden_size,?2)def?forward(self,?sequence_output,?pooled_output):prediction_scores?=?self.predictions(sequence_output)seq_relationship_score?=?self.seq_relationship(pooled_output)return?prediction_scores,?seq_relationship_score

其中,BertLMPredictionHead和BertForMaskedLM中的BertLMPredictionHead一樣,通過這個來得到MLM loss。另外,多了一個seq_relationship,即拿pooled encoding接一個線性二分類層,判斷是否是next sentence,因此可以構造得到next-sentence loss。二者Loss相加。

3.3 BertForNextSentencePrediction

Bert Model with a next sentence prediction (classification) head on top。只有上述的seq_relationship head來構造next-sentence loss,不作贅述。

4. Bert Fine-tuning Tasks

下面將介紹利用預訓練好的Bert對下游任務進行Fine-tuning的方式。下文介紹的fine-tuning任務對應的model,已經在BERT基礎上加了task-specific parameters,只需要利用該model,輸入task-specific data,然后optimization一下,就能夠得到fine-tuned model。

4.1 BertForSequenceClassification

句子級別的任務,sentence-level task。Bert Model transformer with a sequence classification/regression head on top ?(a linear layer on top of the pooled output) e.g. 「for GLUE tasks.」

class?BertForSequenceClassification(BertPreTrainedModel):def?__init__(self,?config):super().__init__(config)self.num_labels?=?config.num_labelsself.bert?=?BertModel(config)self.dropout?=?nn.Dropout(config.hidden_dropout_prob)self.classifier?=?nn.Linear(config.hidden_size,?config.num_labels)?#?類別數量self.init_weights()#?forward輸入參數和前文介紹的預訓練任務一樣def?forward(self,?input_ids=None,?attention_mask=None,token_type_ids=None,?position_ids=None,head_mask=None,?inputs_embeds=None,?labels=None,output_attentions=None,?output_hidden_states=None):#?step?1:?transformer?encodingoutputs?=?self.bert(input_ids,attention_mask=attention_mask,token_type_ids=token_type_ids,position_ids=position_ids,head_mask=head_mask,inputs_embeds=inputs_embeds,output_attentions=output_attentions,output_hidden_states=output_hidden_states)#?step?2:?use?the?pooled?hidden?state?corresponding?to?the?[CLS]?token#?B?x?Dpooled_output?=?outputs[1]pooled_output?=?self.dropout(pooled_output)#?B?x?Nlogits?=?self.classifier(pooled_output)outputs?=?(logits,)?+?outputs[2:]??#?add?hidden?states?and?attention?if?they?are?here#?step?3:?build?loss,??labels:?(B,?)if?labels?is?not?None:if?self.num_labels?==?1:#??We?are?doing?regressionloss_fct?=?MSELoss()loss?=?loss_fct(logits.view(-1),?labels.view(-1))else:loss_fct?=?CrossEntropyLoss()loss?=?loss_fct(logits.view(-1,?self.num_labels),?labels.view(-1))outputs?=?(loss,)?+?outputsreturn?outputs??#?(loss),?logits,?(hidden_states),?(attentions)

看上述代碼,非常清晰。先經過BertModel得到encoding,由于是sentence-level classification,直接拿第一個[CLS] token對應的hidden state過一個分類層得到類別的預測分數logits。再基于logits和labels來構造損失函數。這個任務主要用于sentence-level的分類任務,當然也能夠用于sentence-pair-level的分類任務。

4.2 BertForMultipleChoice

句子對級別的任務,「sentence-pair」-level task。Bert Model with a multiple choice classification head on top (a linear layer on top of the pooled output and a softmax) e.g. for 「RocStories/SWAG tasks.」

給一個提示prompt以及多個選擇choice(其中有1個是對的,其它是錯的),判斷其中哪個選擇是對的。「輸入格式會整成[[prompt, choice0], [prompt, choice1]…]的形式」。bertModel得到的pooled基礎上接一個全連接層,輸出在每個“句對“[prompt, choice i]上的logits,然后過一個softmax,構造交叉熵損失。

4.3 BertForTokenClassification

token級別的下游任務,token-level task。Bert Model with a token classification head on top (a linear layer on top of the hidden-states output) e.g. for 「Named-Entity-Recognition (NER) tasks.」

def?forward(self,?input_ids=None,?attention_mask=None,token_type_ids=None,?position_ids=None,?head_mask=None,inputs_embeds=None,?labels=None,output_attentions=None,?output_hidden_states=None):????#?step?1:?Transformeroutputs?=?self.bert(input_ids,?attention_mask=attention_mask,token_type_ids=token_type_ids,?position_ids=position_ids,head_mask=head_mask,?inputs_embeds=inputs_embeds,output_attentions=output_attentions,output_hidden_states=output_hidden_states)#?step?2:?get?sequence-token?encoding,?B?x?S?x?Dsequence_output?=?outputs[0]#?step?3:?fine-tuning?parameterssequence_output?=?self.dropout(sequence_output)#?B?x?S?x?Nlogits?=?self.classifier(sequence_output)?#?nn.Linear(config.hidden_size,?config.num_labels)outputs?=?(logits,)?+?outputs[2:]??#?add?hidden?states?and?attention?if?they?are?here#?step?4:?build?loss,?labels,?B?x?Sif?labels?is?not?None:loss_fct?=?CrossEntropyLoss()#?Only?keep?active?parts?of?the?lossif?attention_mask?is?not?None:active_loss?=?attention_mask.view(-1)?==?1active_logits?=?logits.view(-1,?self.num_labels)active_labels?=?torch.where(active_loss,?labels.view(-1),?torch.tensor(loss_fct.ignore_index).type_as(labels))loss?=?loss_fct(active_logits,?active_labels)else:loss?=?loss_fct(logits.view(-1,?self.num_labels),?labels.view(-1))outputs?=?(loss,)?+?outputsreturn?outputs??#?(loss),?scores,?(hidden_states),?(attentions)

上述代碼一目了然。不作贅述。主要應用于token-level的分類任務,如NER等。

4.4 BertForQuestionAnswering

句子對級別的任務,「sentence-pair」-level task,具體而言,即抽取式問答任務。Bert Model with a 「span classification head on top」 for extractive question-answering tasks like SQuAD (a linear layers on top of the hidden-states output to compute span start logits and span end logits).

class?BertForQuestionAnswering(BertPreTrainedModel):def?__init__(self,?config):super().__init__(config)self.num_labels?=?config.num_labelsself.bert?=?BertModel(config)# num_labels為2, 分別代表start_position/end_position對應的下游參數。self.qa_outputs?=?nn.Linear(config.hidden_size,?config.num_labels)self.init_weights()#?多了倆參數,start_positions,end_positions,抽取式問答的span label,?shape都是(B,?)def?forward(self,?input_ids=None,?attention_mask=None,token_type_ids=None,?position_ids=None,head_mask=None,?inputs_embeds=None,start_positions=None,?end_positions=None,output_attentions=None,?output_hidden_states=None):#?step?1:?Transformer?encodingoutputs?=?self.bert(input_ids,?#?question,?passage?attention_mask=attention_mask,token_type_ids=token_type_ids,position_ids=position_ids,head_mask=head_mask,inputs_embeds=inputs_embeds,output_attentions=output_attentions,output_hidden_states=output_hidden_states,)#?B?x?S?x?Dsequence_output?=?outputs[0]#?step?2:?split?to?obtain?start?and?end?logits#?B?x?S?x?N?(N為labels數量,此處N=2)logits?=?self.qa_outputs(sequence_output)#?split后,?B?x?S?x?1,?B?x?S?x?1start_logits,?end_logits?=?logits.split(1,?dim=-1)#?B?x?S,?B?x?Sstart_logits?=?start_logits.squeeze(-1)end_logits?=?end_logits.squeeze(-1)outputs?=?(start_logits,?end_logits,)?+?outputs[2:]#?step?3:?build?loss,??start_positions,?end_positions:?(B,?)if?start_positions?is?not?None?and?end_positions?is?not?None:#?If?we?are?on?multi-GPU,?split?add?a?dimensionif?len(start_positions.size())?>?1:start_positions?=?start_positions.squeeze(-1)if?len(end_positions.size())?>?1:end_positions?=?end_positions.squeeze(-1)#?sometimes?the?start/end?positions?are?outside?our?model?inputs,?we?ignore?these?termsignored_index?=?start_logits.size(1)start_positions.clamp_(0,?ignored_index)end_positions.clamp_(0,?ignored_index)#?S?分類loss_fct?=?CrossEntropyLoss(ignore_index=ignored_index)start_loss?=?loss_fct(start_logits,?start_positions)end_loss?=?loss_fct(end_logits,?end_positions)total_loss?=?(start_loss?+?end_loss)?/?2outputs?=?(total_loss,)?+?outputsreturn?outputs??#?(loss),?start_logits,?end_logits,?(hidden_states),?(attentions)

上述代碼主要就是拿sequence-token-level hidden states接兩個全連接層,分別輸出start_position預測的logits和end_position預測的logits。

5. Bert Practice

本部分進行Bert的實踐,包括3個部分:

  • 利用預訓練好的BERT模型,輸出目標語句的Embeddings。

  • 利用預訓練好的BERT模型,預測目標語句中[MASK]位置的真實詞。

  • 利用預訓練好的BERT模型,進行抽取式問答系統。

目前該庫實現的預訓練模型如下:

  • bert-base-chinese

  • bert-base-uncased

  • bert-base-cased

  • bert-base-german-cased

  • bert-base-multilingual-uncased

  • bert-base-multilingual-cased

  • bert-large-cased

  • bert-large-uncased

  • bert-large-uncased-whole-word-masking

  • bert-large-cased-whole-word-masking

上述預訓練好的模型的主要差異在于:

  • 預訓練時的文本語言語料,中文、英文、德文、多語言等

  • 有無大小寫區分

  • 層數

  • 預訓練時遮蓋的是 wordpieces 得到的sub-word 還是整個word

接下來主要采用'bert-base-cased'。在QA部分還會使用上述預訓練模型‘bert-large-uncased-whole-word-masking’在SQUAD上的fine-tuning好的模型進行推斷。

首先加載「切割器和模型:」

MODEL_NAME?=?"bert-base-cased"#?step?1:?先獲取tokenizer,?BertTokenizer,? tokenizer?=?AutoTokenizer.from_pretrained(MODEL_NAME,?cache_dir='tmp/token')? #?step?2:?獲取預訓練好的模型,?BertModel model?=?AutoModel.from_pretrained(MODEL_NAME,?cache_dir='tmp/model')

預覽下tokenizer (「transformers.tokenization_bert.BertTokenizer」):

#?共28996詞,包括特殊符號:('[UNK]',?100),('[PAD]',?0),('[CLS]',?101),('[SEP]',?102),?('[MASK]',?103)... tokenizer.vocab?

看下「model」的網絡結構:

BertModel((embeddings):?BertEmbeddings((word_embeddings):?Embedding(28996,?768,?padding_idx=0)(position_embeddings):?Embedding(512,?768)(token_type_embeddings):?Embedding(2,?768)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False))(encoder):?BertEncoder((layer):?ModuleList((0):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(1):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(2):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(3):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(4):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(5):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(6):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(7):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(8):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(9):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(10):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(11):?BertLayer((attention):?BertAttention((self):?BertSelfAttention((query):?Linear(in_features=768,?out_features=768,?bias=True)(key):?Linear(in_features=768,?out_features=768,?bias=True)(value):?Linear(in_features=768,?out_features=768,?bias=True)(dropout):?Dropout(p=0.1,?inplace=False))(output):?BertSelfOutput((dense):?Linear(in_features=768,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))(intermediate):?BertIntermediate((dense):?Linear(in_features=768,?out_features=3072,?bias=True))(output):?BertOutput((dense):?Linear(in_features=3072,?out_features=768,?bias=True)(LayerNorm):?LayerNorm((768,),?eps=1e-12,?elementwise_affine=True)(dropout):?Dropout(p=0.1,?inplace=False)))))(pooler):?BertPooler((dense):?Linear(in_features=768,?out_features=768,?bias=True)(activation):?Tanh()) )

模型結構參考BertModel源碼介紹部分。

5.1 Embeddings produced by pre-trained BertModel

text?=?"This?is?an?input?example"#?step?1:?tokenize,?including?add?special?tokens tokens_info?=?tokenizer.encode_plus(text,?return_tensors="pt")? for?key,?value?in?tokens_info.items():print("{}:\n\t{}".format(key,?value)) #?observe?the?enriched?token?sequences print(tokenizer.convert_ids_to_tokens(tokens_info['input_ids'].squeeze(0).numpy()))#?step?2:?BertModel?Transformer?Encoding outputs,?pooled?=?model(**tokens_info) print("Token?wise?output:?{},?Pooled?output:?{}".format(outputs.shape,?pooled.shape))''' step?1:?outputs: ----------------------------------------------------------- input_ids:tensor([[?101,?1188,?1110,?1126,?7758,?1859,??102]]) token_type_ids:tensor([[0,?0,?0,?0,?0,?0,?0]]) attention_mask:tensor([[1,?1,?1,?1,?1,?1,?1]])['[CLS]',?'This',?'is',?'an',?'input',?'example',?'[SEP]']step?2:?outputs: ------------------------------------------------------------ Token?wise?output:?torch.Size([1,?7,?768]),?Pooled?output:?torch.Size([1,?768]) '''

5.2 Predict the missing word in a sentence

from?transformers?import?BertForMaskedLMtext?=?"Nice?to?[MASK]?you"?#?target?token?using?[MASK]?to?mask#?step?1:?obtain?pretrained?Bert?Model?using?MLM?Loss maskedLM_model?=?BertForMaskedLM.from_pretrained(MODEL_NAME,?cache_dir='tmp/model') maskedLM_model.eval()?#?close?dropout#?step?2:?tokenize token_info?=?tokenizer.encode_plus(text,?return_tensors='pt') tokens?=?tokenizer.convert_ids_to_tokens(token_info['input_ids'].squeeze().numpy()) print(tokens)?#?['[CLS]',?'Nice',?'to',?'[MASK]',?'you',?'[SEP]']#?step?3:?forward?to?obtain?prediction?scores with?torch.no_grad():outputs?=?maskedLM_model(**token_info)predictions?=?outputs[0]?#?shape,?B?x?S?x?V,?[1,?6,?28996]#?step?4:?top-k?predicted?tokens masked_index?=?tokens.index('[MASK]')?#?3 k?=?10 probs,?indices?=?torch.topk(torch.softmax(predictions[0,?masked_index],?-1),?k)predicted_tokens?=?tokenizer.convert_ids_to_tokens(indices.tolist()) print(list(zip(predicted_tokens,?probs)))''' output:[('meet',?tensor(0.9712)),('see',?tensor(0.0267)),('meeting',?tensor(0.0010)),('have',?tensor(0.0003)),('met',?tensor(0.0002)),('know',?tensor(0.0001)),('join',?tensor(7.0005e-05)),('find',?tensor(5.8323e-05)),('Meet',?tensor(2.7171e-05)),('tell',?tensor(2.4689e-05))] '''

可以看出,meet的概率最大,且達到了0.97,非常顯著。

5.3 Extractive QA

展示sentence-pair level的下游任務。

from?transformers?import?BertTokenizer,?BertForQuestionAnswering import?torch#?step?1:?obtain?pretrained-model?in?SQUAD tokenizer?=?BertTokenizer.from_pretrained('bert-base-uncased',?cache_dir='tmp/token_qa') model?=?BertForQuestionAnswering.from_pretrained('bert-large-uncased-whole-word-masking-finetuned-squad',?cache_dir='tmp/model_qa')#?step?2:?tokenize,?sentence-pair,?question,?passage question,?text?=?"Who?was?Jim?Henson?",?"Jim?Henson?was?a?nice?puppet" encoding?=?tokenizer.encode_plus(question,?text,?return_tensors='pt') input_ids,?token_type_ids?=?encoding["input_ids"],?encoding["token_type_ids"] print(input_ids,?token_type_ids) #?observe?enriched?tokens all_tokens?=?tokenizer.convert_ids_to_tokens(input_ids.squeeze().numpy()) print(all_tokens)#?step?3:?obtain?start/end?position?scores,?B?x?S start_scores,?end_scores?=?model(input_ids,?token_type_ids=token_type_ids)?#?(B,?S) answer?=?'?'.join(all_tokens[torch.argmax(start_scores)?:?torch.argmax(end_scores)+1]) print(answer) assert?answer?==?"a?nice?puppet"''' output: step?2:input_ids:?tensor([[??101,??2040,??2001,??3958,?27227,??1029,???102,??3958,?27227,??2001,?1037,??3835,?13997,???102]])?token_type_ids:?tensor([[0,?0,?0,?0,?0,?0,?0,?1,?1,?1,?1,?1,?1,?1]])all_tokens:['[CLS]',?'who',?'was',?'jim',?'henson',?'?',?'[SEP]',?'jim',?'henson',?'was',?'a',?'nice',?'puppet',?'[SEP]']???step?3:answer:a?nice?puppet '''

可以看出,模型能準確預測出答案,「a nice puppet」

6. Summary

之前一直沒有機會閱讀BERT源碼。這篇文章也算是對BERT源碼的一次粗淺的閱讀筆記。想要進一步學習的話,可以參考文章,進擊的 BERT:NLP 界的巨人之力與遷移學習。總之,基于huggingface提供的transfomers進行二次開發和fine-tune還是比較方便的。下一次會嘗試結合AllenNLP,在AllenNLP中使用transformers來解決NLP tasks。

7. References

Transformers: State-of-the-art Natural Language Processing

深入理解NLP Subword算法:BPE、WordPiece、ULM

huggingface transformers doc

huggingface transformers source code

進擊的 BERT:NLP 界的巨人之力與遷移學習

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯 本站知識星球“黃博的機器學習圈子”(92416895) 本站qq群704220115。 加入微信群請掃碼: 與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的【NLP】Transformers 源码阅读和实践的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲中文字幕无码中字 | 国产特级毛片aaaaaaa高清 | 国产绳艺sm调教室论坛 | 无码纯肉视频在线观看 | 日本熟妇大屁股人妻 | 中文字幕无码视频专区 | 青草青草久热国产精品 | 亚洲区欧美区综合区自拍区 | 超碰97人人射妻 | 无码人妻黑人中文字幕 | 国产美女精品一区二区三区 | 国产卡一卡二卡三 | 中国女人内谢69xxxxxa片 | 欧美 日韩 亚洲 在线 | 全黄性性激高免费视频 | 久久国产自偷自偷免费一区调 | 亚洲小说春色综合另类 | 亚洲成熟女人毛毛耸耸多 | 精品无码成人片一区二区98 | 老子影院午夜精品无码 | 性欧美熟妇videofreesex | 亚洲欧美色中文字幕在线 | 午夜无码区在线观看 | 亚洲va欧美va天堂v国产综合 | 日韩 欧美 动漫 国产 制服 | 亚洲人成人无码网www国产 | 在线观看国产午夜福利片 | 福利一区二区三区视频在线观看 | 亚洲精品美女久久久久久久 | 成人性做爰aaa片免费看不忠 | 午夜男女很黄的视频 | 国产熟女一区二区三区四区五区 | 国产午夜福利亚洲第一 | 久久久精品欧美一区二区免费 | 国产av久久久久精东av | 欧美日韩亚洲国产精品 | 国产高清av在线播放 | 国产精品办公室沙发 | 国产成人亚洲综合无码 | 夜夜影院未满十八勿进 | 国产精品亚洲专区无码不卡 | 国产农村妇女高潮大叫 | 国产精品久久国产三级国 | 精品人人妻人人澡人人爽人人 | 麻豆av传媒蜜桃天美传媒 | 人妻人人添人妻人人爱 | 性欧美疯狂xxxxbbbb | 久久久久99精品成人片 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲自偷精品视频自拍 | 色一情一乱一伦 | 国产午夜福利亚洲第一 | 国产亚洲精品久久久久久大师 | 青青草原综合久久大伊人精品 | 中文字幕 亚洲精品 第1页 | 久久久久久久女国产乱让韩 | 天天躁夜夜躁狠狠是什么心态 | √天堂资源地址中文在线 | 国精产品一品二品国精品69xx | 99在线 | 亚洲 | 国产三级久久久精品麻豆三级 | 波多野42部无码喷潮在线 | 欧美日韩一区二区免费视频 | 丰满少妇女裸体bbw | 波多野结衣高清一区二区三区 | 麻豆蜜桃av蜜臀av色欲av | 福利一区二区三区视频在线观看 | 亚洲精品美女久久久久久久 | 99久久精品日本一区二区免费 | 亚洲日韩中文字幕在线播放 | 澳门永久av免费网站 | 中文字幕无码日韩专区 | 中国大陆精品视频xxxx | 人妻体内射精一区二区三四 | 蜜桃av抽搐高潮一区二区 | 欧美激情一区二区三区成人 | 国产精品内射视频免费 | 麻豆精产国品 | 亚洲中文字幕无码一久久区 | 国产精品福利视频导航 | 一个人免费观看的www视频 | 国产人妻久久精品二区三区老狼 | 国产口爆吞精在线视频 | 中文字幕无码乱人伦 | 性欧美牲交在线视频 | 高清国产亚洲精品自在久久 | 国产成人无码专区 | 中文字幕无码免费久久99 | 精品人妻中文字幕有码在线 | 影音先锋中文字幕无码 | 亚洲性无码av中文字幕 | 国产xxx69麻豆国语对白 | 蜜桃臀无码内射一区二区三区 | 狠狠cao日日穞夜夜穞av | 国产日产欧产精品精品app | 欧洲极品少妇 | 国产农村妇女高潮大叫 | 国内少妇偷人精品视频免费 | 日本大乳高潮视频在线观看 | 曰韩无码二三区中文字幕 | 欧美亚洲国产一区二区三区 | 日日干夜夜干 | 又大又硬又爽免费视频 | 欧美日韩综合一区二区三区 | 亚洲色在线无码国产精品不卡 | 久久久精品456亚洲影院 | 免费看男女做好爽好硬视频 | 人妻人人添人妻人人爱 | av香港经典三级级 在线 | 久久www免费人成人片 | 亚洲爆乳大丰满无码专区 | 久久久久免费精品国产 | 免费观看的无遮挡av | 国产性生大片免费观看性 | 日日鲁鲁鲁夜夜爽爽狠狠 | 麻豆蜜桃av蜜臀av色欲av | 人妻体内射精一区二区三四 | 国产 浪潮av性色四虎 | 麻豆国产人妻欲求不满 | 丰满少妇熟乱xxxxx视频 | 97精品国产97久久久久久免费 | 男女超爽视频免费播放 | 国产精品美女久久久久av爽李琼 | 丰满少妇人妻久久久久久 | 国产三级精品三级男人的天堂 | 国产乱人无码伦av在线a | 久久久久成人片免费观看蜜芽 | 强伦人妻一区二区三区视频18 | 免费乱码人妻系列无码专区 | 精品国产青草久久久久福利 | 欧美人妻一区二区三区 | 18精品久久久无码午夜福利 | 性做久久久久久久免费看 | 欧美xxxxx精品 | 国产精品igao视频网 | 麻豆md0077饥渴少妇 | 欧美性色19p | 精品少妇爆乳无码av无码专区 | 激情内射亚州一区二区三区爱妻 | 特大黑人娇小亚洲女 | 人妻尝试又大又粗久久 | 国产精品国产三级国产专播 | 国产内射爽爽大片视频社区在线 | 国产网红无码精品视频 | 亚洲午夜久久久影院 | aa片在线观看视频在线播放 | 精品国产av色一区二区深夜久久 | 激情五月综合色婷婷一区二区 | 天天av天天av天天透 | 乱人伦人妻中文字幕无码 | 亚洲国产精华液网站w | 强开小婷嫩苞又嫩又紧视频 | 亚洲男人av天堂午夜在 | 麻豆国产人妻欲求不满 | 久久aⅴ免费观看 | 国产av久久久久精东av | 亚洲综合另类小说色区 | 波多野结衣av在线观看 | 欧美自拍另类欧美综合图片区 | 中文字幕无码日韩专区 | 成熟妇人a片免费看网站 | 久久zyz资源站无码中文动漫 | 色诱久久久久综合网ywww | 丰满人妻一区二区三区免费视频 | 国产成人午夜福利在线播放 | 国产精品久免费的黄网站 | 久久精品女人的天堂av | 秋霞成人午夜鲁丝一区二区三区 | 一区二区传媒有限公司 | 国产精品久久久一区二区三区 | 国内揄拍国内精品少妇国语 | 国产精品丝袜黑色高跟鞋 | 无码人妻出轨黑人中文字幕 | 国精品人妻无码一区二区三区蜜柚 | 欧美日韩在线亚洲综合国产人 | 亚洲精品综合五月久久小说 | 欧美精品一区二区精品久久 | 成熟妇人a片免费看网站 | 老司机亚洲精品影院 | 国色天香社区在线视频 | 亚洲日本一区二区三区在线 | 中文字幕精品av一区二区五区 | 亚洲欧美日韩国产精品一区二区 | 高潮喷水的毛片 | 色综合视频一区二区三区 | 中文字幕人妻丝袜二区 | 伊人久久大香线蕉亚洲 | 久久精品国产一区二区三区 | 一本无码人妻在中文字幕免费 | 久久午夜无码鲁丝片秋霞 | 亚洲综合无码久久精品综合 | 亚洲乱亚洲乱妇50p | 国産精品久久久久久久 | 亚洲男人av天堂午夜在 | 一区二区三区乱码在线 | 欧洲 | 国产美女极度色诱视频www | 国产激情艳情在线看视频 | 内射白嫩少妇超碰 | 色综合久久久无码中文字幕 | 无码人妻久久一区二区三区不卡 | 高潮毛片无遮挡高清免费 | 免费中文字幕日韩欧美 | 国产精品18久久久久久麻辣 | 亚洲国产精品一区二区美利坚 | 精品水蜜桃久久久久久久 | 婷婷五月综合激情中文字幕 | 国产香蕉尹人视频在线 | 天堂亚洲2017在线观看 | 日本护士xxxxhd少妇 | 老熟女重囗味hdxx69 | 午夜丰满少妇性开放视频 | 成人影院yy111111在线观看 | 日本一卡2卡3卡四卡精品网站 | 亚洲熟妇色xxxxx亚洲 | 无码任你躁久久久久久久 | 天堂亚洲免费视频 | 亚洲 激情 小说 另类 欧美 | 学生妹亚洲一区二区 | 大胆欧美熟妇xx | 欧美自拍另类欧美综合图片区 | 国产av久久久久精东av | 精品欧洲av无码一区二区三区 | 一本久久伊人热热精品中文字幕 | 女人和拘做爰正片视频 | 亚洲国产精华液网站w | 高潮毛片无遮挡高清免费视频 | 久久久久久亚洲精品a片成人 | 国产高潮视频在线观看 | 天堂а√在线地址中文在线 | 影音先锋中文字幕无码 | 影音先锋中文字幕无码 | 欧美日韩在线亚洲综合国产人 | 一本精品99久久精品77 | 国产激情无码一区二区app | 国产色视频一区二区三区 | 搡女人真爽免费视频大全 | www国产精品内射老师 | 午夜嘿嘿嘿影院 | 国产农村乱对白刺激视频 | 国产三级久久久精品麻豆三级 | 亚洲精品国产第一综合99久久 | 一本大道伊人av久久综合 | 久久久中文久久久无码 | 国产亚洲精品精品国产亚洲综合 | 精品国产aⅴ无码一区二区 | 中文字幕日韩精品一区二区三区 | 一个人看的视频www在线 | 国产精品怡红院永久免费 | 亚洲性无码av中文字幕 | 麻豆蜜桃av蜜臀av色欲av | 国产人妻精品一区二区三区不卡 | 欧美兽交xxxx×视频 | 国产精品资源一区二区 | 成人综合网亚洲伊人 | 1000部啪啪未满十八勿入下载 | 亚洲乱码日产精品bd | 丝袜人妻一区二区三区 | 国产精品久久久久久无码 | 人人妻人人澡人人爽人人精品 | 国产成人无码a区在线观看视频app | 青青青爽视频在线观看 | 人妻无码久久精品人妻 | 人人超人人超碰超国产 | 久久午夜夜伦鲁鲁片无码免费 | 中文字幕av无码一区二区三区电影 | 又色又爽又黄的美女裸体网站 | 装睡被陌生人摸出水好爽 | 日韩av无码一区二区三区 | 377p欧洲日本亚洲大胆 | 国产无套粉嫩白浆在线 | 国产xxx69麻豆国语对白 | 天天拍夜夜添久久精品 | 动漫av一区二区在线观看 | 99国产精品白浆在线观看免费 | 中文字幕av无码一区二区三区电影 | 欧美午夜特黄aaaaaa片 | 波多野结衣高清一区二区三区 | 天天躁夜夜躁狠狠是什么心态 | 国产精品免费大片 | 国产真实乱对白精彩久久 | 无码乱肉视频免费大全合集 | 亚洲精品国产品国语在线观看 | 国产无遮挡又黄又爽又色 | 最近的中文字幕在线看视频 | 国产成人无码av在线影院 | 人人爽人人澡人人高潮 | 精品水蜜桃久久久久久久 | 人人妻人人澡人人爽人人精品 | 国产偷抇久久精品a片69 | 国产精品对白交换视频 | 亚洲日韩精品欧美一区二区 | 欧美人与牲动交xxxx | 色婷婷久久一区二区三区麻豆 | 精品欧洲av无码一区二区三区 | 欧美兽交xxxx×视频 | 在线а√天堂中文官网 | 荫蒂被男人添的好舒服爽免费视频 | 老司机亚洲精品影院无码 | 天天躁日日躁狠狠躁免费麻豆 | 国产精品久久久久无码av色戒 | 东京一本一道一二三区 | 又湿又紧又大又爽a视频国产 | 国产精品久久久久无码av色戒 | 无人区乱码一区二区三区 | 国产精品多人p群无码 | 久久久无码中文字幕久... | 特级做a爰片毛片免费69 | 成人亚洲精品久久久久软件 | 无码成人精品区在线观看 | 男人扒开女人内裤强吻桶进去 | 高清无码午夜福利视频 | 欧美真人作爱免费视频 | 丰满诱人的人妻3 | 无码成人精品区在线观看 | 日韩少妇白浆无码系列 | 美女毛片一区二区三区四区 | 综合激情五月综合激情五月激情1 | 国产精华av午夜在线观看 | 影音先锋中文字幕无码 | 久久婷婷五月综合色国产香蕉 | 国产成人人人97超碰超爽8 | 我要看www免费看插插视频 | 国产午夜手机精彩视频 | 熟女俱乐部五十路六十路av | 国产超碰人人爽人人做人人添 | 大胆欧美熟妇xx | 狠狠cao日日穞夜夜穞av | 99久久亚洲精品无码毛片 | 中文字幕无码av激情不卡 | 欧美午夜特黄aaaaaa片 | 亚洲成a人一区二区三区 | 一个人免费观看的www视频 | 成人三级无码视频在线观看 | 亚洲中文字幕无码一久久区 | 激情爆乳一区二区三区 | 欧美人与物videos另类 | 亚洲爆乳精品无码一区二区三区 | 日韩人妻无码中文字幕视频 | 精品国产国产综合精品 | 亚洲国产综合无码一区 | 国产三级精品三级男人的天堂 | 少妇无码av无码专区在线观看 | 色一情一乱一伦一区二区三欧美 | 日韩欧美中文字幕公布 | 人妻体内射精一区二区三四 | 女人和拘做爰正片视频 | 国产亚洲精品久久久ai换 | 欧美性生交xxxxx久久久 | 无码帝国www无码专区色综合 | 日日麻批免费40分钟无码 | 丰满人妻一区二区三区免费视频 | 精品偷自拍另类在线观看 | 熟女俱乐部五十路六十路av | 国产性生交xxxxx无码 | 人人妻人人澡人人爽欧美一区九九 | 欧美三级a做爰在线观看 | 又粗又大又硬毛片免费看 | av无码不卡在线观看免费 | 国产99久久精品一区二区 | 欧美日韩一区二区三区自拍 | 久久人人爽人人人人片 | a国产一区二区免费入口 | 国内少妇偷人精品视频 | 夜夜夜高潮夜夜爽夜夜爰爰 | 欧美黑人性暴力猛交喷水 | 99久久久无码国产aaa精品 | 久久精品国产一区二区三区肥胖 | 精品成人av一区二区三区 | 欧美激情一区二区三区成人 | 亚洲国产综合无码一区 | 国产又爽又猛又粗的视频a片 | 亚洲国产欧美日韩精品一区二区三区 | 高潮毛片无遮挡高清免费 | 国产精品第一国产精品 | 日韩欧美成人免费观看 | 国精产品一区二区三区 | 国产免费无码一区二区视频 | av香港经典三级级 在线 | 久久精品人人做人人综合试看 | 国产精品二区一区二区aⅴ污介绍 | 国产疯狂伦交大片 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 嫩b人妻精品一区二区三区 | 曰本女人与公拘交酡免费视频 | 亚洲精品欧美二区三区中文字幕 | 色欲av亚洲一区无码少妇 | 六十路熟妇乱子伦 | 俄罗斯老熟妇色xxxx | 亚洲中文字幕va福利 | 377p欧洲日本亚洲大胆 | 国产女主播喷水视频在线观看 | 亚洲理论电影在线观看 | 欧洲精品码一区二区三区免费看 | 国产做国产爱免费视频 | 丰满少妇人妻久久久久久 | 强辱丰满人妻hd中文字幕 | 亚洲精品中文字幕乱码 | 欧美真人作爱免费视频 | 日韩视频 中文字幕 视频一区 | 成人精品一区二区三区中文字幕 | 久久这里只有精品视频9 | 成年美女黄网站色大免费视频 | 日韩欧美中文字幕公布 | 福利一区二区三区视频在线观看 | 国产精华av午夜在线观看 | 久久99精品久久久久久动态图 | 久久国语露脸国产精品电影 | 亚洲色成人中文字幕网站 | yw尤物av无码国产在线观看 | 成人精品视频一区二区 | 久久综合九色综合欧美狠狠 | 久久精品丝袜高跟鞋 | 中文字幕无码乱人伦 | 图片区 小说区 区 亚洲五月 | 亚洲最大成人网站 | 无人区乱码一区二区三区 | 国模大胆一区二区三区 | 久久 国产 尿 小便 嘘嘘 | 老太婆性杂交欧美肥老太 | 激情综合激情五月俺也去 | 蜜桃av抽搐高潮一区二区 | 欧洲熟妇精品视频 | 国产激情艳情在线看视频 | 亚洲成色www久久网站 | 亚欧洲精品在线视频免费观看 | 亚洲欧洲日本无在线码 | 国产乱子伦视频在线播放 | 精品欧洲av无码一区二区三区 | 国产sm调教视频在线观看 | 天海翼激烈高潮到腰振不止 | 丰满少妇女裸体bbw | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 色欲久久久天天天综合网精品 | 免费中文字幕日韩欧美 | 欧美日韩在线亚洲综合国产人 | 亚洲精品国产第一综合99久久 | 特级做a爰片毛片免费69 | 久久亚洲日韩精品一区二区三区 | 国产激情无码一区二区app | 日日噜噜噜噜夜夜爽亚洲精品 | 色综合久久久久综合一本到桃花网 | ass日本丰满熟妇pics | 亚洲自偷自拍另类第1页 | 国产莉萝无码av在线播放 | 在线观看国产一区二区三区 | 人妻少妇精品久久 | 亚洲精品一区二区三区大桥未久 | 欧美成人家庭影院 | 亚洲自偷自拍另类第1页 | 成 人影片 免费观看 | 玩弄中年熟妇正在播放 | 一本色道久久综合狠狠躁 | 久久精品视频在线看15 | 无套内谢的新婚少妇国语播放 | 在线观看免费人成视频 | 任你躁国产自任一区二区三区 | 久久综合网欧美色妞网 | 99视频精品全部免费免费观看 | 色婷婷久久一区二区三区麻豆 | 人妻少妇精品无码专区动漫 | 人妻熟女一区 | 精品一区二区三区波多野结衣 | 久久精品女人天堂av免费观看 | 久久伊人色av天堂九九小黄鸭 | 极品嫩模高潮叫床 | 免费无码肉片在线观看 | 亚洲精品久久久久久久久久久 | 国产明星裸体无码xxxx视频 | 久久久精品人妻久久影视 | 日本精品少妇一区二区三区 | 精品亚洲成av人在线观看 | 亚洲精品一区二区三区四区五区 | 亚洲伊人久久精品影院 | yw尤物av无码国产在线观看 | 亚洲色欲色欲天天天www | 成在人线av无码免费 | 国产69精品久久久久app下载 | 亚洲一区二区三区无码久久 | 精品国产青草久久久久福利 | 精品少妇爆乳无码av无码专区 | 偷窥日本少妇撒尿chinese | 狠狠色色综合网站 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产另类ts人妖一区二区 | 无码av最新清无码专区吞精 | 欧洲熟妇精品视频 | 波多野结衣av一区二区全免费观看 | 无遮无挡爽爽免费视频 | 久久久精品456亚洲影院 | 久久久亚洲欧洲日产国码αv | 久久久久久久女国产乱让韩 | 日本www一道久久久免费榴莲 | 欧美人与善在线com | 亚洲中文字幕乱码av波多ji | 亚洲天堂2017无码中文 | 亚洲精品成a人在线观看 | 欧美人与禽zoz0性伦交 | 99久久婷婷国产综合精品青草免费 | 日本精品人妻无码免费大全 | 国产亚洲精品久久久久久国模美 | 日本丰满熟妇videos | 欧美 丝袜 自拍 制服 另类 | 国产麻豆精品一区二区三区v视界 | 正在播放老肥熟妇露脸 | 亚洲精品久久久久avwww潮水 | 日韩精品一区二区av在线 | 国产农村乱对白刺激视频 | 亚洲s码欧洲m码国产av | 丰满少妇弄高潮了www | 国产另类ts人妖一区二区 | 天天做天天爱天天爽综合网 | 女人被男人爽到呻吟的视频 | 欧美 日韩 亚洲 在线 | 国产香蕉尹人综合在线观看 | 欧美 丝袜 自拍 制服 另类 | 色综合天天综合狠狠爱 | 成人精品视频一区二区三区尤物 | 免费无码的av片在线观看 | 日韩人妻无码中文字幕视频 | 亚洲精品一区二区三区在线 | 麻豆国产97在线 | 欧洲 | 国产香蕉尹人综合在线观看 | 欧美freesex黑人又粗又大 | 亚洲另类伦春色综合小说 | 亚洲日韩乱码中文无码蜜桃臀网站 | 色五月五月丁香亚洲综合网 | 最新国产麻豆aⅴ精品无码 | 久久综合九色综合97网 | 一本精品99久久精品77 | 亚洲欧洲中文日韩av乱码 | a片免费视频在线观看 | 国产精品久久久一区二区三区 | 精品国产一区二区三区四区在线看 | 久久精品视频在线看15 | 99久久无码一区人妻 | 久热国产vs视频在线观看 | 日日碰狠狠躁久久躁蜜桃 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 亚洲欧美日韩成人高清在线一区 | 疯狂三人交性欧美 | 樱花草在线播放免费中文 | 国产精品毛片一区二区 | 国产亚洲精品久久久久久 | 疯狂三人交性欧美 | 中文字幕av日韩精品一区二区 | 国产成人精品视频ⅴa片软件竹菊 | 一个人看的视频www在线 | 伊在人天堂亚洲香蕉精品区 | 中文久久乱码一区二区 | 中文字幕无码av波多野吉衣 | 97精品国产97久久久久久免费 | 国产午夜视频在线观看 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲第一无码av无码专区 | 风流少妇按摩来高潮 | 亚洲色偷偷男人的天堂 | 亚洲成熟女人毛毛耸耸多 | 麻豆国产丝袜白领秘书在线观看 | 亚洲爆乳精品无码一区二区三区 | 99精品国产综合久久久久五月天 | 女人被男人躁得好爽免费视频 | 成人av无码一区二区三区 | 国产一区二区三区四区五区加勒比 | 2020久久香蕉国产线看观看 | 日本免费一区二区三区最新 | 国产亚洲美女精品久久久2020 | 精品国偷自产在线 | 久久精品女人的天堂av | 国产亲子乱弄免费视频 | 麻豆国产丝袜白领秘书在线观看 | 一个人看的www免费视频在线观看 | 女人被爽到呻吟gif动态图视看 | 国产精品亚洲一区二区三区喷水 | 国产国产精品人在线视 | www一区二区www免费 | 男女爱爱好爽视频免费看 | 国产亚洲精品精品国产亚洲综合 | 久久久久成人片免费观看蜜芽 | 亲嘴扒胸摸屁股激烈网站 | 在线看片无码永久免费视频 | 国产午夜福利100集发布 | 噜噜噜亚洲色成人网站 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 性色av无码免费一区二区三区 | 人人妻人人澡人人爽欧美一区九九 | 久久午夜夜伦鲁鲁片无码免费 | 欧洲极品少妇 | 日本精品人妻无码免费大全 | 1000部啪啪未满十八勿入下载 | 日韩人妻无码中文字幕视频 | 伊人久久大香线蕉亚洲 | 爱做久久久久久 | 九月婷婷人人澡人人添人人爽 | 无套内射视频囯产 | 99在线 | 亚洲 | 午夜精品一区二区三区在线观看 | 熟妇人妻无乱码中文字幕 | 熟妇女人妻丰满少妇中文字幕 | 任你躁国产自任一区二区三区 | 国内精品一区二区三区不卡 | 精品无码国产一区二区三区av | 无套内谢老熟女 | 亚洲国产精品一区二区美利坚 | 成人精品一区二区三区中文字幕 | 在教室伦流澡到高潮hnp视频 | 妺妺窝人体色www在线小说 | 国产又爽又猛又粗的视频a片 | 精品水蜜桃久久久久久久 | 中文字幕 人妻熟女 | 精品国产av色一区二区深夜久久 | 伊人色综合久久天天小片 | 国产人妻精品一区二区三区 | 免费无码午夜福利片69 | 国产精品久久久久9999小说 | 亚洲中文字幕久久无码 | 国内精品人妻无码久久久影院蜜桃 | 性做久久久久久久免费看 | 国产激情精品一区二区三区 | 国产亚洲tv在线观看 | 日日摸日日碰夜夜爽av | 天天拍夜夜添久久精品大 | 少妇被粗大的猛进出69影院 | 少妇被粗大的猛进出69影院 | 成人动漫在线观看 | 亚洲成av人综合在线观看 | 亚洲色成人中文字幕网站 | 欧美黑人巨大xxxxx | 欧美猛少妇色xxxxx | 学生妹亚洲一区二区 | 精品人人妻人人澡人人爽人人 | 亚洲小说图区综合在线 | 亚洲欧美日韩成人高清在线一区 | 日韩人妻无码中文字幕视频 | 特大黑人娇小亚洲女 | 成人aaa片一区国产精品 | 成人动漫在线观看 | 偷窥村妇洗澡毛毛多 | 综合网日日天干夜夜久久 | 欧美 丝袜 自拍 制服 另类 | 亚洲男人av香蕉爽爽爽爽 | 18禁止看的免费污网站 | 色老头在线一区二区三区 | 欧美日韩人成综合在线播放 | 在教室伦流澡到高潮hnp视频 | 日本免费一区二区三区最新 | 在线播放免费人成毛片乱码 | 天堂无码人妻精品一区二区三区 | 日本欧美一区二区三区乱码 | 国产精品第一区揄拍无码 | 色五月五月丁香亚洲综合网 | 欧美丰满熟妇xxxx性ppx人交 | 麻豆蜜桃av蜜臀av色欲av | 亚洲国产精华液网站w | 欧美色就是色 | √8天堂资源地址中文在线 | 久久综合给久久狠狠97色 | 人人妻人人澡人人爽欧美一区 | 熟妇人妻中文av无码 | 欧美国产日韩亚洲中文 | 亚洲娇小与黑人巨大交 | 四虎国产精品免费久久 | 国产成人精品一区二区在线小狼 | 国产成人综合美国十次 | 亚洲色偷偷男人的天堂 | 大肉大捧一进一出好爽视频 | 亚洲综合色区中文字幕 | 亚洲国产日韩a在线播放 | 国产超碰人人爽人人做人人添 | 久久国产36精品色熟妇 | 高清不卡一区二区三区 | 狠狠躁日日躁夜夜躁2020 | 亚洲乱亚洲乱妇50p | 一本久道久久综合狠狠爱 | 夜精品a片一区二区三区无码白浆 | 国产乱人伦av在线无码 | 婷婷丁香六月激情综合啪 | 日韩精品无码一区二区中文字幕 | 成人aaa片一区国产精品 | 精品久久8x国产免费观看 | 久久99久久99精品中文字幕 | 亚洲国产av精品一区二区蜜芽 | 国产精品国产三级国产专播 | 成人精品视频一区二区三区尤物 | 国内丰满熟女出轨videos | 亚洲熟妇色xxxxx亚洲 | 九九久久精品国产免费看小说 | 无码精品人妻一区二区三区av | 人人澡人人妻人人爽人人蜜桃 | 日韩人妻系列无码专区 | 久久99久久99精品中文字幕 | 亚洲の无码国产の无码影院 | 熟女少妇人妻中文字幕 | 久久久婷婷五月亚洲97号色 | 又色又爽又黄的美女裸体网站 | 亲嘴扒胸摸屁股激烈网站 | 免费播放一区二区三区 | 亚洲熟妇色xxxxx亚洲 | 亚洲色大成网站www | 兔费看少妇性l交大片免费 | 日本一卡二卡不卡视频查询 | 欧美人与禽猛交狂配 | 99久久久国产精品无码免费 | 综合网日日天干夜夜久久 | 国产午夜无码精品免费看 | 亚洲精品国偷拍自产在线观看蜜桃 | av小次郎收藏 | 欧美成人高清在线播放 | 久9re热视频这里只有精品 | 成人aaa片一区国产精品 | 国产无遮挡又黄又爽免费视频 | 性欧美熟妇videofreesex | 国产精品视频免费播放 | 亚洲欧美国产精品久久 | 丝袜美腿亚洲一区二区 | 真人与拘做受免费视频一 | 久久精品国产日本波多野结衣 | 好男人www社区 | 久久精品99久久香蕉国产色戒 | 亚洲欧美精品aaaaaa片 | 欧美喷潮久久久xxxxx | 日韩无套无码精品 | 最新国产乱人伦偷精品免费网站 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产精品亚洲一区二区三区喷水 | 色综合久久88色综合天天 | 在线播放无码字幕亚洲 | 久久亚洲中文字幕精品一区 | 无码国模国产在线观看 | 一本精品99久久精品77 | 女人和拘做爰正片视频 | 亚洲人亚洲人成电影网站色 | 国产又粗又硬又大爽黄老大爷视 | 在线播放免费人成毛片乱码 | 久久久精品成人免费观看 | 亚洲中文字幕无码一久久区 | 中文字幕久久久久人妻 | 成人无码精品1区2区3区免费看 | 天天av天天av天天透 | 丝袜 中出 制服 人妻 美腿 | 波多野结衣aⅴ在线 | 天天综合网天天综合色 | 国产精品久久国产三级国 | 国产人妻人伦精品 | 亚洲一区二区三区播放 | 亚洲国产欧美国产综合一区 | 99精品无人区乱码1区2区3区 | 撕开奶罩揉吮奶头视频 | 丰满人妻翻云覆雨呻吟视频 | 亚洲经典千人经典日产 | 激情综合激情五月俺也去 | 国产性生大片免费观看性 | 在线亚洲高清揄拍自拍一品区 | 7777奇米四色成人眼影 | 国产午夜视频在线观看 | 无码国产色欲xxxxx视频 | 国产激情一区二区三区 | 人人妻人人澡人人爽人人精品 | 国产乱人偷精品人妻a片 | 国产人成高清在线视频99最全资源 | 日韩成人一区二区三区在线观看 | 亚洲の无码国产の无码步美 | 国产亚av手机在线观看 | 特黄特色大片免费播放器图片 | 色窝窝无码一区二区三区色欲 | 欧洲欧美人成视频在线 | 国产免费观看黄av片 | 又大又硬又爽免费视频 | 久久精品国产99久久6动漫 | 亚洲精品午夜国产va久久成人 | 国产福利视频一区二区 | 国产欧美精品一区二区三区 | 国产艳妇av在线观看果冻传媒 | аⅴ资源天堂资源库在线 | 伊人色综合久久天天小片 | 国产人妻大战黑人第1集 | 久久综合久久自在自线精品自 | 国产三级精品三级男人的天堂 | 国产熟妇另类久久久久 | 亚洲国产高清在线观看视频 | 中文字幕无码热在线视频 | 波多野结衣av在线观看 | 久久久国产一区二区三区 | 欧美日韩一区二区免费视频 | 小sao货水好多真紧h无码视频 | 国内少妇偷人精品视频 | www国产亚洲精品久久久日本 | 欧美午夜特黄aaaaaa片 | 亚洲а∨天堂久久精品2021 | 3d动漫精品啪啪一区二区中 | 波多野结衣aⅴ在线 | 精品国产麻豆免费人成网站 | 国产亚洲欧美在线专区 | 国产精品美女久久久久av爽李琼 | 欧美黑人乱大交 | 国产口爆吞精在线视频 | 国产莉萝无码av在线播放 | 欧美大屁股xxxxhd黑色 | 国产农村妇女高潮大叫 | 中文毛片无遮挡高清免费 | 给我免费的视频在线观看 | 欧美xxxxx精品 | 午夜理论片yy44880影院 | 初尝人妻少妇中文字幕 | 成人试看120秒体验区 | 一区二区三区乱码在线 | 欧洲 | 极品尤物被啪到呻吟喷水 | 无码成人精品区在线观看 | 国产乡下妇女做爰 | 麻豆md0077饥渴少妇 | 亚洲精品欧美二区三区中文字幕 | 国产精品美女久久久久av爽李琼 | 国产精品久久精品三级 | 一区二区三区高清视频一 | 久久国产劲爆∧v内射 | 亚洲色在线无码国产精品不卡 | 免费网站看v片在线18禁无码 | 97精品人妻一区二区三区香蕉 | 国产精品亚洲一区二区三区喷水 | v一区无码内射国产 | 精品人妻人人做人人爽夜夜爽 | 国产麻豆精品一区二区三区v视界 | 午夜精品久久久久久久久 | 精品无人区无码乱码毛片国产 | 久久aⅴ免费观看 | 亚洲欧美中文字幕5发布 | 久久久久av无码免费网 | av无码久久久久不卡免费网站 | 亚洲啪av永久无码精品放毛片 | 曰本女人与公拘交酡免费视频 | 在线观看免费人成视频 | 久久综合久久自在自线精品自 | 亚洲日韩一区二区三区 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲欧美精品伊人久久 | 久久久www成人免费毛片 | 国产激情一区二区三区 | 亚洲精品综合五月久久小说 | 国产乱人伦偷精品视频 | 九九久久精品国产免费看小说 | 亚洲大尺度无码无码专区 | 99精品无人区乱码1区2区3区 | 成年美女黄网站色大免费视频 | 久久久精品国产sm最大网站 | 国产极品美女高潮无套在线观看 | 天堂在线观看www | 丰满人妻精品国产99aⅴ | 在线播放亚洲第一字幕 | 老子影院午夜伦不卡 | 免费无码肉片在线观看 | 巨爆乳无码视频在线观看 | 99久久久国产精品无码免费 | 日韩精品乱码av一区二区 | 性欧美熟妇videofreesex | 黄网在线观看免费网站 | 国产极品美女高潮无套在线观看 | 激情内射亚州一区二区三区爱妻 | 少妇无码av无码专区在线观看 | 无码吃奶揉捏奶头高潮视频 | 久久精品99久久香蕉国产色戒 | 丝袜人妻一区二区三区 | 国产成人精品视频ⅴa片软件竹菊 | 国产美女极度色诱视频www | 精品偷拍一区二区三区在线看 | 日本xxxx色视频在线观看免费 | 丰满岳乱妇在线观看中字无码 | 国产精品亚洲综合色区韩国 | 综合激情五月综合激情五月激情1 | 动漫av一区二区在线观看 | 久久久中文久久久无码 | 丰满护士巨好爽好大乳 | 麻豆蜜桃av蜜臀av色欲av | 3d动漫精品啪啪一区二区中 | 国产一精品一av一免费 | 日韩精品久久久肉伦网站 | 无码av最新清无码专区吞精 | 国色天香社区在线视频 | 国产av久久久久精东av | 国产人妻精品一区二区三区不卡 | 久久精品成人欧美大片 | 日日夜夜撸啊撸 | 97色伦图片97综合影院 | av在线亚洲欧洲日产一区二区 | 亚洲精品国产精品乱码不卡 | 一区二区三区高清视频一 | 最近免费中文字幕中文高清百度 | 一本加勒比波多野结衣 | 午夜熟女插插xx免费视频 | 国产午夜无码视频在线观看 | 久9re热视频这里只有精品 | 亚洲精品午夜国产va久久成人 | 欧美精品国产综合久久 | 国产亚洲精品精品国产亚洲综合 | 一本大道伊人av久久综合 | 日本成熟视频免费视频 | 蜜臀av在线播放 久久综合激激的五月天 | 最新版天堂资源中文官网 | 日韩欧美群交p片內射中文 | √8天堂资源地址中文在线 | 小泽玛莉亚一区二区视频在线 | 成人免费视频一区二区 | 午夜肉伦伦影院 | 午夜丰满少妇性开放视频 | 中文字幕久久久久人妻 | 蜜桃视频韩日免费播放 | 欧美三级不卡在线观看 | 97无码免费人妻超级碰碰夜夜 | 国产三级精品三级男人的天堂 | 国产真实乱对白精彩久久 | 亚洲欧美中文字幕5发布 | 精品午夜福利在线观看 | 日韩人妻无码一区二区三区久久99 | 亚洲日韩av一区二区三区四区 | 人人澡人人透人人爽 | 天天拍夜夜添久久精品大 | 亚洲国产日韩a在线播放 | √天堂中文官网8在线 | 亚洲gv猛男gv无码男同 | 亚洲一区二区三区 | 女人和拘做爰正片视频 | 亚洲欧美日韩国产精品一区二区 | 装睡被陌生人摸出水好爽 | 日本在线高清不卡免费播放 | 国产乱人偷精品人妻a片 | 久久亚洲日韩精品一区二区三区 | 亚洲国产精品无码久久久久高潮 | 久久久国产一区二区三区 | 中文字幕人成乱码熟女app | 国产97色在线 | 免 | 亚洲欧洲日本综合aⅴ在线 | 无码精品人妻一区二区三区av | 欧洲欧美人成视频在线 | 久9re热视频这里只有精品 | 熟妇人妻激情偷爽文 | 老熟女重囗味hdxx69 | 人妻少妇精品久久 | 国内少妇偷人精品视频 | 国产亚洲美女精品久久久2020 | 免费无码一区二区三区蜜桃大 | 日本精品人妻无码77777 天堂一区人妻无码 | 又粗又大又硬毛片免费看 | 大色综合色综合网站 | 久久精品国产精品国产精品污 | 亚洲欧洲无卡二区视頻 | 国产高清不卡无码视频 | 亚洲综合色区中文字幕 | 久久久久久久女国产乱让韩 | www国产精品内射老师 | 无码国产激情在线观看 | 国产精品va在线观看无码 | 自拍偷自拍亚洲精品被多人伦好爽 | 久久精品人人做人人综合试看 | 18禁黄网站男男禁片免费观看 | 最近的中文字幕在线看视频 | 俄罗斯老熟妇色xxxx | 日本精品少妇一区二区三区 | 亚洲一区二区三区在线观看网站 | 成人精品视频一区二区 | 亚洲国产精品成人久久蜜臀 | 十八禁视频网站在线观看 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲国产一区二区三区在线观看 | 成人无码视频在线观看网站 | 欧美人与禽zoz0性伦交 | 亚洲国产精品一区二区第一页 | 大肉大捧一进一出视频出来呀 | 在线播放无码字幕亚洲 | 最新国产乱人伦偷精品免费网站 | 国产成人无码一二三区视频 | 亚洲日本一区二区三区在线 | 婷婷丁香六月激情综合啪 | 欧洲精品码一区二区三区免费看 | 日本www一道久久久免费榴莲 | 最新国产麻豆aⅴ精品无码 | 午夜精品一区二区三区的区别 | 思思久久99热只有频精品66 | 精品无人国产偷自产在线 | 帮老师解开蕾丝奶罩吸乳网站 | 沈阳熟女露脸对白视频 | 一本久久a久久精品亚洲 | 成人aaa片一区国产精品 | 青草视频在线播放 | 国产福利视频一区二区 | 成人精品一区二区三区中文字幕 | 国产色在线 | 国产 | 福利一区二区三区视频在线观看 | 无码任你躁久久久久久久 | 国产手机在线αⅴ片无码观看 | 成人性做爰aaa片免费看 | 亚洲中文字幕无码中文字在线 | 风流少妇按摩来高潮 | 97夜夜澡人人爽人人喊中国片 | 中文字幕久久久久人妻 | 乱人伦中文视频在线观看 | 欧美性猛交内射兽交老熟妇 | 国产色精品久久人妻 | 少妇性俱乐部纵欲狂欢电影 | 青青久在线视频免费观看 | 少妇性l交大片欧洲热妇乱xxx | 九九久久精品国产免费看小说 | 久久久久久av无码免费看大片 | 动漫av一区二区在线观看 | 精品一二三区久久aaa片 | 无码人妻出轨黑人中文字幕 | 欧美日韩综合一区二区三区 | 精品久久久久久人妻无码中文字幕 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲日本va午夜在线电影 | 亚洲中文字幕va福利 | 国产又爽又猛又粗的视频a片 | av小次郎收藏 | 人妻熟女一区 | 成人亚洲精品久久久久 | 又大又硬又爽免费视频 | 欧美freesex黑人又粗又大 | 7777奇米四色成人眼影 | 女人被爽到呻吟gif动态图视看 | 国产97色在线 | 免 | 最新国产麻豆aⅴ精品无码 | 无码av免费一区二区三区试看 | 国产香蕉尹人综合在线观看 | 少妇人妻偷人精品无码视频 | 国产精品内射视频免费 | 天干天干啦夜天干天2017 | 国产亚洲精品久久久久久国模美 | 国产无遮挡又黄又爽又色 | 麻豆国产97在线 | 欧洲 | 亚洲精品www久久久 | 疯狂三人交性欧美 | 又大又紧又粉嫩18p少妇 | 西西人体www44rt大胆高清 | 欧美黑人巨大xxxxx | 成人欧美一区二区三区黑人免费 | 内射爽无广熟女亚洲 | 亚洲成av人片在线观看无码不卡 | 女人被男人躁得好爽免费视频 | 国产精品人人爽人人做我的可爱 | 亚洲色成人中文字幕网站 | 无码人妻出轨黑人中文字幕 | 未满小14洗澡无码视频网站 | 狠狠cao日日穞夜夜穞av | 女人高潮内射99精品 | 老太婆性杂交欧美肥老太 | 丰满少妇女裸体bbw | 熟妇人妻激情偷爽文 | 在教室伦流澡到高潮hnp视频 | 国产精品久久久一区二区三区 | 午夜免费福利小电影 | 国产精品手机免费 | 粉嫩少妇内射浓精videos | 中文字幕久久久久人妻 | 国产莉萝无码av在线播放 | 丰满人妻精品国产99aⅴ | 色婷婷综合激情综在线播放 | 国内揄拍国内精品少妇国语 | 欧美性黑人极品hd | 天天爽夜夜爽夜夜爽 | 午夜无码区在线观看 | 99国产精品白浆在线观看免费 | 国产特级毛片aaaaaaa高清 | 国产片av国语在线观看 | 欧美阿v高清资源不卡在线播放 | 日韩人妻无码一区二区三区久久99 | 免费无码午夜福利片69 | 日韩精品a片一区二区三区妖精 | 国产尤物精品视频 | 一二三四在线观看免费视频 | 欧美人与牲动交xxxx | 人妻与老人中文字幕 | 狠狠色噜噜狠狠狠7777奇米 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲va欧美va天堂v国产综合 | 特大黑人娇小亚洲女 | 精品一区二区不卡无码av | 性做久久久久久久久 | 亚洲爆乳大丰满无码专区 | 日韩无码专区 | 亚洲一区二区三区国产精华液 | 男女猛烈xx00免费视频试看 | 免费人成在线视频无码 | 俺去俺来也在线www色官网 | 国产舌乚八伦偷品w中 | 亚洲午夜福利在线观看 | 国产热a欧美热a在线视频 | 爽爽影院免费观看 | 国产高清不卡无码视频 | 国产成人精品一区二区在线小狼 | 久久久久久av无码免费看大片 | 日韩视频 中文字幕 视频一区 | 一本久道久久综合婷婷五月 | 在线欧美精品一区二区三区 | 色综合久久久久综合一本到桃花网 | 青青青爽视频在线观看 | 精品人妻av区 | 欧洲vodafone精品性 | 日日麻批免费40分钟无码 | 久久亚洲a片com人成 | 麻豆国产丝袜白领秘书在线观看 | 国精品人妻无码一区二区三区蜜柚 | 国产网红无码精品视频 | 99视频精品全部免费免费观看 | 欧洲熟妇色 欧美 | 久久久亚洲欧洲日产国码αv | 精品国产av色一区二区深夜久久 | 国产精品毛片一区二区 | 久久99精品久久久久婷婷 | 欧美喷潮久久久xxxxx | 国产精品久久久一区二区三区 | 日本精品久久久久中文字幕 | 伊人久久大香线蕉亚洲 | 久久国产精品偷任你爽任你 | 亚洲欧洲无卡二区视頻 | 青春草在线视频免费观看 | 欧美zoozzooz性欧美 | 国产亚洲精品久久久久久 | 免费男性肉肉影院 | aa片在线观看视频在线播放 | 亚洲色大成网站www国产 | 亚洲第一无码av无码专区 | 午夜精品一区二区三区在线观看 | 国产在线一区二区三区四区五区 | 无码人妻少妇伦在线电影 | 99久久人妻精品免费一区 | 欧美野外疯狂做受xxxx高潮 | 亚洲男人av天堂午夜在 | 国产精华av午夜在线观看 | 日本一卡2卡3卡四卡精品网站 | 伊人久久大香线蕉亚洲 | 国产麻豆精品精东影业av网站 | 久久久久99精品国产片 | 日本一本二本三区免费 | 性欧美疯狂xxxxbbbb | 精品国精品国产自在久国产87 | 亚洲综合色区中文字幕 | 亚洲精品国偷拍自产在线麻豆 | 国内少妇偷人精品视频 | 中文字幕乱码亚洲无线三区 | 国产乱人无码伦av在线a | 国色天香社区在线视频 | 精品国产乱码久久久久乱码 | 国产又爽又黄又刺激的视频 | 久久精品成人欧美大片 | 国产精品a成v人在线播放 | 97夜夜澡人人爽人人喊中国片 | 奇米影视888欧美在线观看 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 亚洲理论电影在线观看 | 国产乱人伦偷精品视频 | 狂野欧美激情性xxxx | 国产亚洲人成在线播放 | 免费看少妇作爱视频 | 日韩欧美群交p片內射中文 | 午夜肉伦伦影院 | 免费看男女做好爽好硬视频 | 中文字幕无码免费久久9一区9 | 中文字幕中文有码在线 | 久久亚洲国产成人精品性色 | 国产色xx群视频射精 | 精品无码一区二区三区爱欲 | 人人妻人人澡人人爽精品欧美 | 国产在热线精品视频 | 18禁黄网站男男禁片免费观看 | 在教室伦流澡到高潮hnp视频 | 免费中文字幕日韩欧美 | 亚洲第一网站男人都懂 | 国产成人综合美国十次 | 人妻少妇精品视频专区 | 麻豆国产丝袜白领秘书在线观看 | 精品久久综合1区2区3区激情 | 无套内谢老熟女 | 久久天天躁狠狠躁夜夜免费观看 | 国产熟妇另类久久久久 | 97无码免费人妻超级碰碰夜夜 | 丰满人妻被黑人猛烈进入 | 国产九九九九九九九a片 | 无码任你躁久久久久久久 | 国产综合久久久久鬼色 | 十八禁视频网站在线观看 | 麻豆成人精品国产免费 | 九九热爱视频精品 | 亚洲伊人久久精品影院 | 纯爱无遮挡h肉动漫在线播放 | 日本成熟视频免费视频 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 亚洲乱码中文字幕在线 | 亚洲精品www久久久 | 午夜福利电影 | 国产猛烈高潮尖叫视频免费 | 日本熟妇大屁股人妻 | 亚洲va欧美va天堂v国产综合 | 久久精品国产一区二区三区肥胖 | 日韩精品无码一区二区中文字幕 | 97资源共享在线视频 | 亚洲精品中文字幕 | ass日本丰满熟妇pics | 国产性生交xxxxx无码 | 亲嘴扒胸摸屁股激烈网站 | 精品偷自拍另类在线观看 | 日本一区二区更新不卡 | 欧美三级a做爰在线观看 | 性欧美疯狂xxxxbbbb | 国模大胆一区二区三区 | 精品水蜜桃久久久久久久 | 一本色道久久综合狠狠躁 | 狂野欧美性猛交免费视频 | 日本欧美一区二区三区乱码 | 乌克兰少妇xxxx做受 | 熟妇女人妻丰满少妇中文字幕 | 久久久成人毛片无码 | 纯爱无遮挡h肉动漫在线播放 | 中文无码成人免费视频在线观看 | 久久伊人色av天堂九九小黄鸭 | 九九在线中文字幕无码 | 99久久无码一区人妻 | 日本乱人伦片中文三区 | 天下第一社区视频www日本 | 无遮挡啪啪摇乳动态图 | 国产九九九九九九九a片 | 国产精品免费大片 | 国产艳妇av在线观看果冻传媒 | 东京无码熟妇人妻av在线网址 | 亚洲爆乳大丰满无码专区 | 黑人粗大猛烈进出高潮视频 | 一二三四社区在线中文视频 | 久久久久亚洲精品中文字幕 | 久久天天躁狠狠躁夜夜免费观看 | 性做久久久久久久免费看 | 精品国产一区二区三区四区 | 漂亮人妻洗澡被公强 日日躁 | 在线观看免费人成视频 | 久久久久99精品国产片 | 日本丰满护士爆乳xxxx | 婷婷五月综合激情中文字幕 | 久久亚洲精品中文字幕无男同 | 2020久久超碰国产精品最新 | 中文字幕av无码一区二区三区电影 | 亚洲色偷偷男人的天堂 | 十八禁真人啪啪免费网站 | 久久久久99精品国产片 | 国产亚洲精品久久久闺蜜 | 亚洲另类伦春色综合小说 | 精品无人区无码乱码毛片国产 | 51国偷自产一区二区三区 | 无码人妻精品一区二区三区不卡 | 无码人妻久久一区二区三区不卡 | 亚洲精品久久久久中文第一幕 | 中文无码精品a∨在线观看不卡 | 日韩人妻无码一区二区三区久久99 | 特大黑人娇小亚洲女 | 无码中文字幕色专区 | 亚洲中文字幕无码中文字在线 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 伦伦影院午夜理论片 | 久久久精品人妻久久影视 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 一本大道久久东京热无码av | 国产9 9在线 | 中文 | aⅴ亚洲 日韩 色 图网站 播放 | 久久 国产 尿 小便 嘘嘘 | 台湾无码一区二区 | 日本xxxx色视频在线观看免费 | 欧美高清在线精品一区 | 亚洲成a人一区二区三区 | 亚洲热妇无码av在线播放 | 天堂无码人妻精品一区二区三区 | 国产三级精品三级男人的天堂 | 久久精品成人欧美大片 | 欧美人与物videos另类 | 亚洲国产精品美女久久久久 | 日本熟妇人妻xxxxx人hd | 国产精品手机免费 | 人人妻人人澡人人爽人人精品浪潮 | 亲嘴扒胸摸屁股激烈网站 | 麻豆md0077饥渴少妇 | 亚洲 日韩 欧美 成人 在线观看 | 国产精品国产三级国产专播 | 精品人妻中文字幕有码在线 | 精品无人区无码乱码毛片国产 | 欧美日韩亚洲国产精品 | 丰满人妻翻云覆雨呻吟视频 | 狠狠亚洲超碰狼人久久 | 激情内射日本一区二区三区 | 大地资源网第二页免费观看 | 亚洲熟妇自偷自拍另类 | 2020久久香蕉国产线看观看 | 欧美日韩一区二区三区自拍 | 久久久久se色偷偷亚洲精品av | 婷婷五月综合激情中文字幕 | 精品无码成人片一区二区98 | 日韩精品无码免费一区二区三区 | 人人爽人人爽人人片av亚洲 | www一区二区www免费 | av无码久久久久不卡免费网站 | 国产热a欧美热a在线视频 | 国产九九九九九九九a片 | 宝宝好涨水快流出来免费视频 | 嫩b人妻精品一区二区三区 | 亚洲国产av美女网站 | 无码av岛国片在线播放 | 99国产欧美久久久精品 | 国产成人无码a区在线观看视频app | 欧美日韩亚洲国产精品 | 国产网红无码精品视频 | 精品无人国产偷自产在线 | 窝窝午夜理论片影院 | 国产美女精品一区二区三区 | 国产在线精品一区二区高清不卡 | 国产精品亚洲一区二区三区喷水 | 夜夜影院未满十八勿进 | 性欧美牲交在线视频 | 国产精品理论片在线观看 | 国产激情精品一区二区三区 | 中国女人内谢69xxxx | 国产综合久久久久鬼色 | 亚洲 激情 小说 另类 欧美 | 国产精品a成v人在线播放 | 少妇愉情理伦片bd | 少妇性荡欲午夜性开放视频剧场 | 综合网日日天干夜夜久久 | www国产亚洲精品久久久日本 | 九月婷婷人人澡人人添人人爽 | 在线观看免费人成视频 | 麻豆果冻传媒2021精品传媒一区下载 | 乱人伦人妻中文字幕无码久久网 | 亚洲精品综合五月久久小说 | 日韩在线不卡免费视频一区 | 国产区女主播在线观看 | 国内精品人妻无码久久久影院蜜桃 | 搡女人真爽免费视频大全 | 日韩亚洲欧美精品综合 | 好男人www社区 | 国产乱人伦偷精品视频 | 秋霞特色aa大片 | 色噜噜亚洲男人的天堂 | 亚洲日韩av一区二区三区四区 | 无码人妻黑人中文字幕 | 黑森林福利视频导航 | 又湿又紧又大又爽a视频国产 | 久久www免费人成人片 | 亚洲理论电影在线观看 | 亚洲精品综合一区二区三区在线 | 久9re热视频这里只有精品 | 国产明星裸体无码xxxx视频 | 国产精品成人av在线观看 | 色一情一乱一伦 | 无码一区二区三区在线观看 | 欧美怡红院免费全部视频 | 色五月五月丁香亚洲综合网 | 九九久久精品国产免费看小说 | 领导边摸边吃奶边做爽在线观看 | 人人超人人超碰超国产 | 波多野结衣av一区二区全免费观看 | 又大又硬又爽免费视频 | 东北女人啪啪对白 | 国产高潮视频在线观看 | 2020久久超碰国产精品最新 | 精品欧美一区二区三区久久久 | 国产欧美熟妇另类久久久 | 男女下面进入的视频免费午夜 | 亚洲国产精品无码久久久久高潮 | 人人妻人人澡人人爽欧美一区 | 成人性做爰aaa片免费看不忠 | 久久97精品久久久久久久不卡 | 亚洲国产精品一区二区第一页 | 国内精品人妻无码久久久影院蜜桃 | 三上悠亚人妻中文字幕在线 | 夜夜夜高潮夜夜爽夜夜爰爰 | 极品嫩模高潮叫床 | 四十如虎的丰满熟妇啪啪 | 无遮无挡爽爽免费视频 | 天天摸天天碰天天添 | 性生交大片免费看l | 狂野欧美性猛交免费视频 | 精品无人国产偷自产在线 | 精品欧美一区二区三区久久久 | 成年美女黄网站色大免费视频 | 人妻少妇被猛烈进入中文字幕 | 国产精品多人p群无码 | 亚洲熟悉妇女xxx妇女av | 成人无码精品1区2区3区免费看 | 国产性生交xxxxx无码 | 蜜桃视频韩日免费播放 | 在线播放免费人成毛片乱码 | 性生交大片免费看女人按摩摩 | 亚洲第一网站男人都懂 | 欧美精品国产综合久久 | 国产精品亚洲一区二区三区喷水 | 福利一区二区三区视频在线观看 | 扒开双腿疯狂进出爽爽爽视频 | 国产香蕉97碰碰久久人人 | 帮老师解开蕾丝奶罩吸乳网站 | 国产欧美精品一区二区三区 | 精品欧美一区二区三区久久久 | 久久久中文字幕日本无吗 | 欧美成人家庭影院 | 人人妻人人澡人人爽人人精品浪潮 | 又黄又爽又色的视频 | 国产av无码专区亚洲awww | 久久综合激激的五月天 | 亚洲色偷偷偷综合网 | 久久精品国产99久久6动漫 | 日韩成人一区二区三区在线观看 | 亚洲人成网站在线播放942 | 国产成人无码午夜视频在线观看 | 中文字幕无码免费久久99 | 亚洲国产精品一区二区第一页 | 国产亚洲美女精品久久久2020 | 3d动漫精品啪啪一区二区中 | 亚洲日韩av一区二区三区中文 | 日韩精品a片一区二区三区妖精 | 欧美日韩一区二区综合 | 在线视频网站www色 | 丰满少妇人妻久久久久久 | 久久99精品国产.久久久久 | 老头边吃奶边弄进去呻吟 | 男女猛烈xx00免费视频试看 | 亚洲精品一区二区三区大桥未久 | 任你躁国产自任一区二区三区 | 日本一区二区三区免费高清 | 精品亚洲成av人在线观看 | 国产女主播喷水视频在线观看 | 亚洲精品国产第一综合99久久 | 亚洲日韩一区二区 | 麻豆av传媒蜜桃天美传媒 | 精品国产一区二区三区四区 | 波多野结衣aⅴ在线 | 国产高清av在线播放 | 亚洲精品国产品国语在线观看 | 国产精品va在线观看无码 | 999久久久国产精品消防器材 | 成熟女人特级毛片www免费 | 亚洲中文字幕成人无码 | 久久精品一区二区三区四区 | 日日摸日日碰夜夜爽av | 国产精品无套呻吟在线 | 国产乱码精品一品二品 | 国产极品视觉盛宴 | 乱中年女人伦av三区 | 日本一区二区更新不卡 | a在线亚洲男人的天堂 | 亚洲欧美精品aaaaaa片 | 国产精品久久久久久亚洲影视内衣 | 国产人成高清在线视频99最全资源 | 久久亚洲中文字幕精品一区 | 中文字幕色婷婷在线视频 | 色情久久久av熟女人妻网站 | 亚洲精品一区二区三区大桥未久 | www一区二区www免费 | 日日夜夜撸啊撸 | 国产精品久久久久7777 | 国产精品久久久久久久9999 | 中文字幕人妻丝袜二区 | 国产精品无码永久免费888 | 国产网红无码精品视频 | 国产精品久免费的黄网站 | 男人和女人高潮免费网站 | 18黄暴禁片在线观看 | 99久久久国产精品无码免费 | 亚洲va中文字幕无码久久不卡 | 日日摸日日碰夜夜爽av | 欧美人与禽zoz0性伦交 | 亚洲自偷自拍另类第1页 | 欧美怡红院免费全部视频 | 久久久中文久久久无码 | 久久99精品久久久久婷婷 | 欧美刺激性大交 | 亚洲国产av美女网站 | 四虎永久在线精品免费网址 | 日韩人妻少妇一区二区三区 | 久久久久久久久888 | 377p欧洲日本亚洲大胆 | 亚洲成色在线综合网站 | 精品熟女少妇av免费观看 | 波多野结衣 黑人 | 波多野结衣av一区二区全免费观看 | 成年美女黄网站色大免费全看 | 精品乱子伦一区二区三区 | 成人一在线视频日韩国产 | 色欲久久久天天天综合网精品 | 国内少妇偷人精品视频免费 | 亚洲の无码国产の无码影院 | 九九久久精品国产免费看小说 | 六月丁香婷婷色狠狠久久 | 极品嫩模高潮叫床 | 久9re热视频这里只有精品 | 高清国产亚洲精品自在久久 | 日本熟妇人妻xxxxx人hd | 欧美成人午夜精品久久久 | 国产极品美女高潮无套在线观看 | 国产免费无码一区二区视频 | 精品一区二区三区无码免费视频 | a片免费视频在线观看 | 久久久久久亚洲精品a片成人 | 性色欲网站人妻丰满中文久久不卡 | 精品国产青草久久久久福利 | 曰韩无码二三区中文字幕 | 成人免费视频视频在线观看 免费 | 国产亚洲欧美在线专区 | 国产综合在线观看 | 少妇激情av一区二区 | 精品久久久久香蕉网 | 亚洲一区av无码专区在线观看 | 又粗又大又硬又长又爽 | 一个人免费观看的www视频 | 东京无码熟妇人妻av在线网址 | 亚洲国产精品无码一区二区三区 | 西西人体www44rt大胆高清 | 国产卡一卡二卡三 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 国产午夜无码视频在线观看 | 婷婷丁香五月天综合东京热 | 国产综合在线观看 | 亚洲国产精华液网站w | 东京无码熟妇人妻av在线网址 | 狂野欧美性猛交免费视频 | 亚洲伊人久久精品影院 | 欧美野外疯狂做受xxxx高潮 | 亚洲国产高清在线观看视频 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲 激情 小说 另类 欧美 | 青草青草久热国产精品 | 一本无码人妻在中文字幕免费 | 日欧一片内射va在线影院 | 亚洲日韩乱码中文无码蜜桃臀网站 | 亚洲国产欧美在线成人 | 精品久久久中文字幕人妻 | 丁香啪啪综合成人亚洲 | 97久久国产亚洲精品超碰热 | 狠狠躁日日躁夜夜躁2020 | 2019nv天堂香蕉在线观看 | 亚洲中文字幕无码一久久区 | 亚洲综合另类小说色区 | 国产精品丝袜黑色高跟鞋 | 国产精品欧美成人 | 老熟妇乱子伦牲交视频 | 久久综合香蕉国产蜜臀av | 风流少妇按摩来高潮 | 2020最新国产自产精品 | 国产免费无码一区二区视频 | 色 综合 欧美 亚洲 国产 | 国产熟妇高潮叫床视频播放 | 久久人人爽人人爽人人片ⅴ | 无码帝国www无码专区色综合 | 无遮无挡爽爽免费视频 | 无码国内精品人妻少妇 | 丰满肥臀大屁股熟妇激情视频 | www国产亚洲精品久久网站 | 国产成人精品久久亚洲高清不卡 | 中文字幕日韩精品一区二区三区 | 午夜肉伦伦影院 | 国产精品毛多多水多 | 任你躁在线精品免费 | 国产高潮视频在线观看 | 正在播放老肥熟妇露脸 | 国产国语老龄妇女a片 | 日日天干夜夜狠狠爱 | 妺妺窝人体色www在线小说 | 国产精品va在线播放 | 欧美人与牲动交xxxx | 激情国产av做激情国产爱 | 午夜熟女插插xx免费视频 | 亚洲一区二区三区四区 | 天堂无码人妻精品一区二区三区 | 久久99久久99精品中文字幕 | 97人妻精品一区二区三区 | 无码成人精品区在线观看 | 激情综合激情五月俺也去 | 成 人 免费观看网站 | 成人片黄网站色大片免费观看 | 中文字幕无码热在线视频 | 中文亚洲成a人片在线观看 | 久久99精品久久久久久动态图 | 乱中年女人伦av三区 | 久9re热视频这里只有精品 | 99久久人妻精品免费二区 | 人人妻人人澡人人爽精品欧美 | 亚洲s码欧洲m码国产av | 色婷婷欧美在线播放内射 | 免费视频欧美无人区码 | 中文字幕日产无线码一区 | 一本久久a久久精品亚洲 | 国产亚洲欧美在线专区 | 中文字幕 亚洲精品 第1页 | 精品亚洲韩国一区二区三区 | 亚洲精品成a人在线观看 | 日产精品99久久久久久 | 窝窝午夜理论片影院 | 夫妻免费无码v看片 | 3d动漫精品啪啪一区二区中 | 欧美激情综合亚洲一二区 | 国产av无码专区亚洲a∨毛片 | 色综合久久久久综合一本到桃花网 | 亚洲国产欧美日韩精品一区二区三区 | 人妻aⅴ无码一区二区三区 | 色欲综合久久中文字幕网 | 亚洲s码欧洲m码国产av | 又大又硬又爽免费视频 | 亚洲国产精品久久久天堂 | 欧美人与善在线com | 亚洲欧美综合区丁香五月小说 | 在线а√天堂中文官网 | 亚洲熟熟妇xxxx | 老司机亚洲精品影院 | 久久久亚洲欧洲日产国码αv | 2020久久香蕉国产线看观看 | 波多野42部无码喷潮在线 | 国产免费无码一区二区视频 | 蜜桃av抽搐高潮一区二区 | 久久久久久av无码免费看大片 | 亚洲国产综合无码一区 | 亚洲成a人片在线观看无码 | 国产人成高清在线视频99最全资源 | 免费人成网站视频在线观看 | 人妻少妇精品视频专区 | 亚洲а∨天堂久久精品2021 | 99精品无人区乱码1区2区3区 | 成人aaa片一区国产精品 | 东京无码熟妇人妻av在线网址 | 色综合久久网 | 亚洲人成无码网www | √天堂资源地址中文在线 | 成熟女人特级毛片www免费 | 东北女人啪啪对白 | 亚洲综合伊人久久大杳蕉 | 老司机亚洲精品影院无码 | 色老头在线一区二区三区 | 国内精品人妻无码久久久影院 | 久久精品99久久香蕉国产色戒 | 亚洲自偷自拍另类第1页 | 一本加勒比波多野结衣 | 双乳奶水饱满少妇呻吟 | 午夜性刺激在线视频免费 | 波多野结衣一区二区三区av免费 | 少妇久久久久久人妻无码 | 久久国内精品自在自线 | √天堂资源地址中文在线 | 国产av一区二区精品久久凹凸 | 领导边摸边吃奶边做爽在线观看 | 国产成人无码a区在线观看视频app | 国产精品久久福利网站 | 成人免费视频视频在线观看 免费 | 无码一区二区三区在线观看 | 久久精品女人天堂av免费观看 | 99久久精品国产一区二区蜜芽 | aa片在线观看视频在线播放 | 日本欧美一区二区三区乱码 | 日日噜噜噜噜夜夜爽亚洲精品 | 在线观看欧美一区二区三区 | 老熟妇乱子伦牲交视频 | 国产熟女一区二区三区四区五区 | 亚洲 激情 小说 另类 欧美 | 99久久人妻精品免费二区 | 国产深夜福利视频在线 | 东京一本一道一二三区 | 久久99精品国产.久久久久 | 97夜夜澡人人爽人人喊中国片 | 曰本女人与公拘交酡免费视频 | 国产成人综合美国十次 | 午夜无码区在线观看 | 夫妻免费无码v看片 | 国产性生大片免费观看性 | 日韩无码专区 | 76少妇精品导航 | 亚洲人成人无码网www国产 | 97久久超碰中文字幕 | 亚洲精品国产精品乱码视色 | 中文字幕无线码免费人妻 | 18禁黄网站男男禁片免费观看 | 麻豆av传媒蜜桃天美传媒 | 色诱久久久久综合网ywww | 国产成人精品无码播放 | 无码人妻丰满熟妇区五十路百度 | 久久精品国产99精品亚洲 | 亚洲啪av永久无码精品放毛片 | 午夜丰满少妇性开放视频 | 欧美兽交xxxx×视频 | 午夜福利试看120秒体验区 |