3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

bert模型简介、transformers中bert模型源码阅读、分类任务实战和难点总结

發布時間:2024/7/5 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 bert模型简介、transformers中bert模型源码阅读、分类任务实战和难点总结 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

bert模型簡介、transformers中bert模型源碼閱讀、分類任務實戰和難點總結:https://blog.csdn.net/HUSTHY/article/details/105882989

目錄

一、bert模型簡介

bert與訓練的流程:

bert模型的輸入

二、huggingface的bert源碼淺析

bert提取文本詞向量

BertModel代碼閱讀

BertEmbedding子模型

BertEncoder

BertAttention

BertIntermediate

BertOutput(config)

BertPooler()

三、Bert文本分類任務實戰

四、Bert模型難點總結

寫在最前面,這篇博客篇幅有點長,原因是貼的代碼和圖有點多,感興趣的可以堅持讀下去!


一、bert模型簡介

? ? ? ? 2018年bert模型被谷歌提出,它在NLP的11項任務中取得了state of the art 的結果。bert模型是由很多層transformer結構堆疊而成,這里簡單看看一下transformer的結構,上一張經典的圖片,如下:

可以看到transformer是由encoder和decoder模塊構成,而bert模型則是利用了transformer的encoder模塊。最輕量的bert買模型是由12層transformer,12頭注意力,768維的hidden state,在論文中的結構簡圖如下:

這樣的雙向transformer的結構,在NLP的大部分任務中取得了很好的效果,具備較強的泛化能力。由于使用了海量的語料進行了訓練,bert模型可以使用pretrain——fine-tune這種方式來進行各類NLP任務。

bert與訓練的流程:

這個過程包括兩個任務,一個是Masked Language Model(遮掩語言模型),另外一個是Next Sentence Prediction(下一句預測)。

Masked Language Model(遮掩語言模型)可以理解為是做完型填空,把語料中15%的詞遮掩掉,來學習詞和詞之間的一些規律;

Next Sentence Prediction就是學習語料中上下文中2個句子之間的關系規律。

通過這2個階段任務的學習,bert就會把文本的語法和語義信息學習到。bert模型中的self-attention機制可以使用文本其他的詞來增強目標詞的語義表示,這也是bert模型吊打其他模型的一個關鍵原因。

bert模型的輸入

bert模型的輸入可以是一個句子或者句子對,代碼層面來說,就是輸入了句子或者句子對對應的3個向量。它們分別是token embedding,segment embedding和position embedding,具體的含義:

token embedding:句子的詞向量

segment embedding:是那個句子的0和1

position embedding:位置向量,指明每個字在句中的位置。

關于position embedding這里有兩種求法,一種是有相應的三角函數公式得出的,這種是絕對向量;還有一種是學習得到的,這種是相對向量。具體形式如下:

二、huggingface的bert源碼淺析

關于bert模型的使用,我主要是使用huggingface的transformer庫來調用bert和使用——一般是直接用來bert來獲取詞向量。這里就bert的使用和huggingface中的源碼進行一些解讀。

bert提取文本詞向量

首先看一段簡單的代碼,使用huggingface的transformers(其實就是實現的bert)來提取句——我愛武漢!我愛中國!——的向量。代碼如下:bert提取文本詞向量 首先看一段簡單的代碼,使用huggingface的transformers(其實就是實現的bert)來提取句——我愛武漢!我愛中國!——的向量。代碼如下:

from transformers import BertModel,BertTokenizer,BertConfig import torchconfig = BertConfig.from_pretrained('pretrain_model/chinese-bert-wwm')#第一步加載模型配置文件 bertmodel = BertModel.from_pretrained('pretrain_model/chinese-bert-wwm',config=config)#第二步初始化模型,并加載權重 # print('***************************bertmodel***************************') tokenizer = BertTokenizer.from_pretrained('pretrain_model/chinese-bert-wwm')#第三步加載tokenizertext1 = '我愛武漢!我愛中國!' tokeniz_text1 = tokenizer.tokenize(text1) # print(tokeniz_text1) # print('tokeniz_text1:',len(tokeniz_text1)) indexed_tokens_1 = tokenizer.convert_tokens_to_ids(tokeniz_text1) print('len(indexed_tokens_1):',len(indexed_tokens_1)) print(indexed_tokens_1)input_ids_1 = indexed_tokens_1 # print(indexed_tokens_1) # print('indexed_tokens_1:',len(indexed_tokens_1)) segments_ids_1 = [0]*len(input_ids_1)#其實這個輸入可以不用的,因為是單句的原因 input_masks_1 = [1]*len(input_ids_1)#其實這個輸入可以不用的,因為是單句的原因input_ids_1_tensor = torch.tensor([input_ids_1]) vector1,pooler1 = bertmodel(input_ids_1_tensor)#應該是輸入3個向量的,但是單句情況下,它自會自己做判斷,然后自動生成對應的segments_ids和input_masks向量 #這里的輸出最后一層的last_hidden_state和最后一層首個token的hidden-statetext2 = '[CLS]我愛武漢!我愛中國![SEP]' tokeniz_text2 = tokenizer.tokenize(text2) indexed_tokens_2 = tokenizer.convert_tokens_to_ids(tokeniz_text2)input_ids_2 = indexed_tokens_2 segments_ids_2 = [0]*len(input_ids_2)#其實這個輸入可以不用的,因為是單句的原因 input_masks_2 = [1]*len(input_ids_2)#其實這個輸入可以不用的,因為是單句的原因input_ids_2_tensor = torch.tensor([input_ids_2]) vector2,pooler2 = bertmodel(input_ids_2_tensor) print('pooler2:',pooler2) print('vector2[:,0:1,:]:',vector2[:,0:1,:])text1_encode = tokenizer.encode(text1,add_special_tokens=True) print('len(text1_encode):',len(text1_encode)) print('text1_encode:',text1_encode)
  • input_ids_2_tensor = torch.tensor([input_ids_2])
  • vector2,pooler2 = bertmodel(input_ids_2_tensor)
  • print('pooler2:',pooler2)
  • print('vector2[:,0:1,:]:',vector2[:,0:1,:])
  • text1_encode = tokenizer.encode(text1,add_special_tokens=True)
  • print('len(text1_encode):',len(text1_encode))
  • print('text1_encode:',text1_encode)
  • #這里的text1_encode和indexed_tokens_2是一模一樣的,encode()函數會自動為文本添加特殊字符[UNK][CLS][SEP][MASK]等
  • 以上代碼是基于pytorch來實現的,同時應用到了transoformers庫!可以看到bert模型的使用非常簡單!

    第一步,初始化bert模型和加載權重。這個步驟中,首先加載配置文件、然后加載bert模型和載入權重。

    第二步,對輸入文本做詞表映射,形成初始詞向量。

    第三步,輸入喂入bert模型中得到輸入文本的結果向量。

    文中是bert模型的輸入我這里只給出了一個那就是input_ids,另外的2個沒有給出。這里的原因就是這里是單個句子,模型內部可以對另外2個輸入做自動添加的處理——并不是沒有,這點要注意到。

    這里有個疑問因為bert的輸入文本得添加一個[cls]特殊字符,我認為最后的輸出lsat_hidden_state中的lsat_hidden_state[:,0:1,:]應該和pooler結果是一樣的,可是這里是不一樣的,有點理解的偏差,不知道為什么。

    BertModel代碼閱讀

    通過上文中的代碼,大致可以知道怎么調用一些API來創建bert模型和應用它。那么huggingface中是怎么實現BertModel的這個也是比較重要的,這里我們就好好閱讀以下其中關于BertModel實現的代碼。看一張transformers項目文件結構圖:

    這么面封裝了很多模型的構建,我們主要是閱讀modeling_bert.py文件,它在里面詳細的展示了如何構建一個Bert模型的:

    class BertModel(BertPreTrainedModel):"""......."""def __init__(self, config):super().__init__(config)self.config = configself.embeddings = BertEmbeddings(config)self.encoder = BertEncoder(config)self.pooler = BertPooler(config)self.init_weights()def get_input_embeddings(self):return self.embeddings.word_embeddingsdef set_input_embeddings(self, value):self.embeddings.word_embeddings = valuedef _prune_heads(self, heads_to_prune):""" Prunes heads of the model.heads_to_prune: dict of {layer_num: list of heads to prune in this layer}See base class PreTrainedModel"""for layer, heads in heads_to_prune.items():self.encoder.layer[layer].attention.prune_heads(heads)@add_start_docstrings_to_callable(BERT_INPUTS_DOCSTRING)def forward(self,input_ids=None,attention_mask=None,token_type_ids=None,position_ids=None,head_mask=None,inputs_embeds=None,encoder_hidden_states=None,encoder_attention_mask=None,):r"""......."""if input_ids is not None and inputs_embeds is not None:raise ValueError("You cannot specify both input_ids and inputs_embeds at the same time")elif input_ids is not None:input_shape = input_ids.size()elif inputs_embeds is not None:input_shape = inputs_embeds.size()[:-1]else:raise ValueError("You have to specify either input_ids or inputs_embeds")device = input_ids.device if input_ids is not None else inputs_embeds.deviceif attention_mask is None:attention_mask = torch.ones(input_shape, device=device)if token_type_ids is None:token_type_ids = torch.zeros(input_shape, dtype=torch.long, device=device)# We can provide a self-attention mask of dimensions [batch_size, from_seq_length, to_seq_length]# ourselves in which case we just need to make it broadcastable to all heads.extended_attention_mask: torch.Tensor = self.get_extended_attention_mask(attention_mask, input_shape, self.device)# If a 2D ou 3D attention mask is provided for the cross-attention# we need to make broadcastabe to [batch_size, num_heads, seq_length, seq_length]if self.config.is_decoder and encoder_hidden_states is not None:encoder_batch_size, encoder_sequence_length, _ = encoder_hidden_states.size()encoder_hidden_shape = (encoder_batch_size, encoder_sequence_length)if encoder_attention_mask is None:encoder_attention_mask = torch.ones(encoder_hidden_shape, device=device)encoder_extended_attention_mask = self.invert_attention_mask(encoder_attention_mask)else:encoder_extended_attention_mask = None# Prepare head mask if needed# 1.0 in head_mask indicate we keep the head# attention_probs has shape bsz x n_heads x N x N# input head_mask has shape [num_heads] or [num_hidden_layers x num_heads]# and head_mask is converted to shape [num_hidden_layers x batch x num_heads x seq_length x seq_length]head_mask = self.get_head_mask(head_mask, self.config.num_hidden_layers)embedding_output = self.embeddings(input_ids=input_ids, position_ids=position_ids, token_type_ids=token_type_ids, inputs_embeds=inputs_embeds)encoder_outputs = self.encoder(embedding_output,attention_mask=extended_attention_mask,head_mask=head_mask,encoder_hidden_states=encoder_hidden_states,encoder_attention_mask=encoder_extended_attention_mask,)sequence_output = encoder_outputs[0]pooled_output = self.pooler(sequence_output)outputs = (sequence_output, pooled_output,) + encoder_outputs[1:] # add hidden_states and attentions if they are herereturn outputs # sequence_output, pooled_output, (hidden_states), (attentions)

    以上就是BertModel的全部代碼,可以看到在BertModel類中,首先__init__()函數中定義了模型的基本模塊,然后在forward()函數里面使用這些結構模塊具體實現了Bert的邏輯。

    def __init__(self, config):super().__init__(config)self.config = configself.embeddings = BertEmbeddings(config)self.encoder = BertEncoder(config)self.pooler = BertPooler(config)self.init_weights()

    init()函數中定義的模型模塊主要是3個,分別是BertEmbedding、BertEncoder和BertPooler。然后在forward(),輸入順序的經過這3個模塊的處理就得到了我們要的結果——對應文本的bert向量。

    下面來閱讀forward():

    if input_ids is not None and inputs_embeds is not None:raise ValueError("You cannot specify both input_ids and inputs_embeds at the same time") elif input_ids is not None:input_shape = input_ids.size() elif inputs_embeds is not None:input_shape = inputs_embeds.size()[:-1] else:raise ValueError("You have to specify either input_ids or inputs_embeds")device = input_ids.device if input_ids is not None else inputs_embeds.deviceif attention_mask is None:attention_mask = torch.ones(input_shape, device=device) if token_type_ids is None:token_type_ids = torch.zeros(input_shape, dtype=torch.long, device=device)# We can provide a self-attention mask of dimensions [batch_size, from_seq_length, to_seq_length] # ourselves in which case we just need to make it broadcastable to all heads. if attention_mask.dim() == 3:extended_attention_mask = attention_mask[:, None, :, :] elif attention_mask.dim() == 2:# Provided a padding mask of dimensions [batch_size, seq_length]# - if the model is a decoder, apply a causal mask in addition to the padding mask# - if the model is an encoder, make the mask broadcastable to [batch_size, num_heads, seq_length, seq_length]if self.config.is_decoder:batch_size, seq_length = input_shapeseq_ids = torch.arange(seq_length, device=device)causal_mask = seq_ids[None, None, :].repeat(batch_size, seq_length, 1) <= seq_ids[None, :, None]causal_mask = causal_mask.to(attention_mask.dtype) # causal and attention masks must have same type with pytorch version < 1.3extended_attention_mask = causal_mask[:, None, :, :] * attention_mask[:, None, None, :]else:extended_attention_mask = attention_mask[:, None, None, :] else:raise ValueError("Wrong shape for input_ids (shape {}) or attention_mask (shape {})".format(input_shape, attention_mask.shape))# Since attention_mask is 1.0 for positions we want to attend and 0.0 for # masked positions, this operation will create a tensor which is 0.0 for # positions we want to attend and -10000.0 for masked positions. # Since we are adding it to the raw scores before the softmax, this is # effectively the same as removing these entirely. extended_attention_mask = extended_attention_mask.to(dtype=next(self.parameters()).dtype) # fp16 compatibility extended_attention_mask = (1.0 - extended_attention_mask) * -10000.0# If a 2D ou 3D attention mask is provided for the cross-attention # we need to make broadcastabe to [batch_size, num_heads, seq_length, seq_length] if self.config.is_decoder and encoder_hidden_states is not None:encoder_batch_size, encoder_sequence_length, _ = encoder_hidden_states.size()encoder_hidden_shape = (encoder_batch_size, encoder_sequence_length)if encoder_attention_mask is None:encoder_attention_mask = torch.ones(encoder_hidden_shape, device=device)if encoder_attention_mask.dim() == 3:encoder_extended_attention_mask = encoder_attention_mask[:, None, :, :]elif encoder_attention_mask.dim() == 2:encoder_extended_attention_mask = encoder_attention_mask[:, None, None, :]else:raise ValueError("Wrong shape for encoder_hidden_shape (shape {}) or encoder_attention_mask (shape {})".format(encoder_hidden_shape, encoder_attention_mask.shape))encoder_extended_attention_mask = encoder_extended_attention_mask.to(dtype=next(self.parameters()).dtype) # fp16 compatibilityencoder_extended_attention_mask = (1.0 - encoder_extended_attention_mask) * -10000.0 else:encoder_extended_attention_mask = None# Prepare head mask if needed # 1.0 in head_mask indicate we keep the head # attention_probs has shape bsz x n_heads x N x N # input head_mask has shape [num_heads] or [num_hidden_layers x num_heads] # and head_mask is converted to shape [num_hidden_layers x batch x num_heads x seq_length x seq_length] if head_mask is not None:if head_mask.dim() == 1:head_mask = head_mask.unsqueeze(0).unsqueeze(0).unsqueeze(-1).unsqueeze(-1)head_mask = head_mask.expand(self.config.num_hidden_layers, -1, -1, -1, -1)elif head_mask.dim() == 2:head_mask = (head_mask.unsqueeze(1).unsqueeze(-1).unsqueeze(-1)) # We can specify head_mask for each layerhead_mask = head_mask.to(dtype=next(self.parameters()).dtype) # switch to fload if need + fp16 compatibility else:head_mask = [None] * self.config.num_hidden_layers

    以上是一些預處理的代碼。判定input_ids的合法性,不能為空不能和inputs_embeds同時輸入;接著就獲取使用的設備是CPU還是GPU;判定attention_mask和token_type_ids的合法性,為None的話就新建一個;處理attention_mask得到encoder_extended_attention_mask,把它傳播給所有的注意力頭;最后就是判定是否啟用decoder——bert模型是基于encoder的,我認為這里就不必要做這個判定,bert的encoder的結果只是傳遞給下一層encoder,并沒有傳遞到decoder。

    下面具體看核心的部分。

    上面把輸入做一些預處理后,使得輸入都合法,然后就可以喂入模型的功能模塊中。第一個就是

    embedding_output = self.embeddings(input_ids=input_ids, position_ids=position_ids, token_type_ids=token_type_ids, inputs_embeds=inputs_embeds)

    BertEmbedding子模型
    其中的self.embeddings()就是__inti__()的BertEmbeddings(config)模塊,它可以看做是一個起embedding功能作用的子模型,具體代碼:

    class BertEmbeddings(nn.Module):"""Construct the embeddings from word, position and token_type embeddings."""def __init__(self, config):super().__init__()self.word_embeddings = nn.Embedding(config.vocab_size, config.hidden_size, padding_idx=0)self.position_embeddings = nn.Embedding(config.max_position_embeddings, config.hidden_size)self.token_type_embeddings = nn.Embedding(config.type_vocab_size, config.hidden_size)# self.LayerNorm is not snake-cased to stick with TensorFlow model variable name and be able to load# any TensorFlow checkpoint fileself.LayerNorm = BertLayerNorm(config.hidden_size, eps=config.layer_norm_eps)self.dropout = nn.Dropout(config.hidden_dropout_prob)def forward(self, input_ids=None, token_type_ids=None, position_ids=None, inputs_embeds=None):if input_ids is not None:input_shape = input_ids.size()else:input_shape = inputs_embeds.size()[:-1]seq_length = input_shape[1]device = input_ids.device if input_ids is not None else inputs_embeds.deviceif position_ids is None:position_ids = torch.arange(seq_length, dtype=torch.long, device=device)position_ids = position_ids.unsqueeze(0).expand(input_shape)if token_type_ids is None:token_type_ids = torch.zeros(input_shape, dtype=torch.long, device=device)if inputs_embeds is None:inputs_embeds = self.word_embeddings(input_ids)position_embeddings = self.position_embeddings(position_ids)token_type_embeddings = self.token_type_embeddings(token_type_ids)embeddings = inputs_embeds + position_embeddings + token_type_embeddingsembeddings = self.LayerNorm(embeddings)embeddings = self.dropout(embeddings)return embeddings

    它的具體作用就是:首先把我們輸入的input_ids、token_type_ids和position_ids——(這里輸入的是對應元素在詞典中的index集合)經過torch.nn.Embedding()在各自的詞典中得到詞嵌入。然后把這3個向量直接做加法運算,接著做層歸一化以及dropout()操作。這里為何可以直接相加是可以做一個專門的問題來討論的,這里的歸一化的作用應該就是避免一些數值問題、梯度問題和模型收斂問題以及分布改變問題,dropout操作隨機丟棄掉一部分特征,可以增加模型的泛化性能。

    BertEncoder
    經過上述的處理后,我們就得到了一個維度是[batch_size,sequence_length,hidden_states]的向量embeddings。然后再把這個embeddings輸入到Encoder中,代碼如下,參數都很清晰明確:

    encoder_outputs = self.encoder(embedding_output,attention_mask=extended_attention_mask,head_mask=head_mask,encoder_hidden_states=encoder_hidden_states,encoder_attention_mask=encoder_extended_attention_mask,)

    這里的self.encoder同樣是__init__()中的BertEncoder(config)模型,全部代碼如下:

    class BertEncoder(nn.Module):def __init__(self, config):super().__init__()self.output_attentions = config.output_attentionsself.output_hidden_states = config.output_hidden_statesself.layer = nn.ModuleList([BertLayer(config) for _ in range(config.num_hidden_layers)])def forward(self,hidden_states,attention_mask=None,head_mask=None,encoder_hidden_states=None,encoder_attention_mask=None,):all_hidden_states = ()all_attentions = ()for i, layer_module in enumerate(self.layer):if self.output_hidden_states:all_hidden_states = all_hidden_states + (hidden_states,)layer_outputs = layer_module(hidden_states, attention_mask, head_mask[i], encoder_hidden_states, encoder_attention_mask)hidden_states = layer_outputs[0]if self.output_attentions:all_attentions = all_attentions + (layer_outputs[1],)# Add last layerif self.output_hidden_states:all_hidden_states = all_hidden_states + (hidden_states,)outputs = (hidden_states,)if self.output_hidden_states:outputs = outputs + (all_hidden_states,)if self.output_attentions:outputs = outputs + (all_attentions,)return outputs

    其中模型定義部分的核心代碼如下:

    self.layer = nn.ModuleList([BertLayer(config) for _ in range(config.num_hidden_layers)])

    通過這句代碼和config中的參數——“num_hidden_layers”: 12——可以得出BertEncoder使用12個(層)BertLayer組成的。對每一層的bertlayer在forward()中的for循環做如下操作:

    for i, layer_module in enumerate(self.layer):if self.output_hidden_states:all_hidden_states = all_hidden_states + (hidden_states,)layer_outputs = layer_module(hidden_states, attention_mask, head_mask[i], encoder_hidden_states, encoder_attention_mask)hidden_states = layer_outputs[0]if self.output_attentions:all_attentions = all_attentions + (layer_outputs[1],)

    更新hidden_states(也就是layer_outputs[0]),然后把更新后的hidden_states傳入到下一層BertLayer中,同時把每一層的hidden_states和attentions(也就是layer_outputs[1])記錄下來,然后作為一個整體輸出。所有最后的輸出里包含的有最后一層BertLayer的hidden_states和12層所有的hidden_states以及attentions。

    BertLayer具體又是什么樣的呢?這里就需要看看具體的BertLayer的實現:

    class BertLayer(nn.Module):def __init__(self, config):super().__init__()self.attention = BertAttention(config)self.is_decoder = config.is_decoderif self.is_decoder:self.crossattention = BertAttention(config)self.intermediate = BertIntermediate(config)self.output = BertOutput(config)

    可以看到BertLayer是由BertAttention()、BertIntermediate()和BertOutput()構成。它的forward()是比較簡單的,沒有什么奇特的操作,都是順序的把輸入經過BertAttention()、BertIntermediate()和BertOutput()這些子模型。這里主要來看看這些子模型的實現:

    BertAttention
    這里它又嵌套了一層,由BertSelfAttention()和BertSelfOutput()子模型組成!

    這里馬上就看到self-attention機制的實現了!感覺好激動!——Self-Attention則利用了Attention機制,計算每個單詞與其他所有單詞之間的關聯(說實話理解的不是很透徹!)

    class BertSelfAttention(nn.Module):def __init__(self, config):super().__init__()if config.hidden_size % config.num_attention_heads != 0 and not hasattr(config, "embedding_size"):raise ValueError("The hidden size (%d) is not a multiple of the number of attention ""heads (%d)" % (config.hidden_size, config.num_attention_heads))self.output_attentions = config.output_attentionsself.num_attention_heads = config.num_attention_headsself.attention_head_size = int(config.hidden_size / config.num_attention_heads)self.all_head_size = self.num_attention_heads * self.attention_head_sizeself.query = nn.Linear(config.hidden_size, self.all_head_size)self.key = nn.Linear(config.hidden_size, self.all_head_size)self.value = nn.Linear(config.hidden_size, self.all_head_size)self.dropout = nn.Dropout(config.attention_probs_dropout_prob)def transpose_for_scores(self, x):new_x_shape = x.size()[:-1] + (self.num_attention_heads, self.attention_head_size)x = x.view(*new_x_shape)return x.permute(0, 2, 1, 3)def forward(self,hidden_states,attention_mask=None,head_mask=None,encoder_hidden_states=None,encoder_attention_mask=None,):mixed_query_layer = self.query(hidden_states)# If this is instantiated as a cross-attention module, the keys# and values come from an encoder; the attention mask needs to be# such that the encoder's padding tokens are not attended to.if encoder_hidden_states is not None:mixed_key_layer = self.key(encoder_hidden_states)mixed_value_layer = self.value(encoder_hidden_states)attention_mask = encoder_attention_maskelse:mixed_key_layer = self.key(hidden_states)mixed_value_layer = self.value(hidden_states)query_layer = self.transpose_for_scores(mixed_query_layer)key_layer = self.transpose_for_scores(mixed_key_layer)value_layer = self.transpose_for_scores(mixed_value_layer)# Take the dot product between "query" and "key" to get the raw attention scores.attention_scores = torch.matmul(query_layer, key_layer.transpose(-1, -2))attention_scores = attention_scores / math.sqrt(self.attention_head_size)if attention_mask is not None:# Apply the attention mask is (precomputed for all layers in BertModel forward() function)attention_scores = attention_scores + attention_mask# Normalize the attention scores to probabilities.attention_probs = nn.Softmax(dim=-1)(attention_scores)# This is actually dropping out entire tokens to attend to, which might# seem a bit unusual, but is taken from the original Transformer paper.attention_probs = self.dropout(attention_probs)# Mask heads if we want toif head_mask is not None:attention_probs = attention_probs * head_maskcontext_layer = torch.matmul(attention_probs, value_layer)context_layer = context_layer.permute(0, 2, 1, 3).contiguous()new_context_layer_shape = context_layer.size()[:-2] + (self.all_head_size,)context_layer = context_layer.view(*new_context_layer_shape)outputs = (context_layer, attention_probs) if self.output_attentions else (context_layer,)return outputs

    閱讀代碼之前先回顧一下,self-attention的公式是什么樣的,公式編輯比較麻煩直接上2個圖,都是來自Attention機制詳解(二)——Self-Attention與Transformer文章中:

    首先定義Q、K、V

    然后應用到公式中:

    以上就是單個頭的self-attention的公式,多頭的話就可以計算多次,然后在合并起來。這里就可以應用到矩陣運算了,還要注意的點就是Q、K、V的學習參數都是共享的——(要去驗證),代碼對應的就是:

  • self.query = nn.Linear(config.hidden_size, self.all_head_size)
  • self.key = nn.Linear(config.hidden_size, self.all_head_size)
  • self.value = nn.Linear(config.hidden_size, self.all_head_size)
  • #注意這里的nn.Linear包含的學習參數一個是權重參數weights一個是偏置參數bias
  • #而且這里的query、key以及value它們的參數不一樣,也就是并不共享參數
  • 參數都包含在nn.Linear中了,這里的self.query對應的是12個頭的self-attention機制對應的Q的學習參數模型,當然query、key以及value它們的參數不一樣,也就是并不共享參數。

    那么在forward()中是如何實現的呢?

  • mixed_query_layer = self.query(hidden_states)#計算Q
  • if encoder_hidden_states is not None:
  • mixed_key_layer = self.key(encoder_hidden_states)
  • mixed_value_layer = self.value(encoder_hidden_states)
  • attention_mask = encoder_attention_mask
  • else:
  • mixed_key_layer = self.key(hidden_states) #計算K
  • mixed_value_layer = self.value(hidden_states)#計算V
  • #做轉置操作——這有點特殊:mixed_query_layer[batch_size,sequence_length,hidden_states]
  • #query_layer的維度:[batch_size,num_attention_heads,sequence_length,attention_head_size]
  • query_layer = self.transpose_for_scores(mixed_query_layer)
  • key_layer = self.transpose_for_scores(mixed_key_layer)
  • value_layer = self.transpose_for_scores(mixed_value_layer)
  • #Q和K做點積
  • attention_scores = torch.matmul(query_layer, key_layer.transpose(-1, -2))
  • #Q和K做點積后然后除以根號下多頭主力的尺寸
  • attention_scores = attention_scores / math.sqrt(self.attention_head_size)
  • if attention_mask is not None:
  • # Apply the attention mask is (precomputed for all layers in BertModel forward() function)
  • attention_scores = attention_scores + attention_mask
  • # Normalize the attention scores to probabilities.
  • #做softmax操作,歸一化
  • attention_probs = nn.Softmax(dim=-1)(attention_scores)
  • # This is actually dropping out entire tokens to attend to, which might
  • # seem a bit unusual, but is taken from the original Transformer paper.
  • attention_probs = self.dropout(attention_probs)
  • # Mask heads if we want to
  • if head_mask is not None:
  • attention_probs = attention_probs * head_mask
  • #中間結果和V做點積,得到最終結果——注意力得分也就是公式中的Z
  • context_layer = torch.matmul(attention_probs, value_layer)
  • 以上代碼的中文注釋就把計算過程分析清楚了,計算mixed_query_layer、mixed_key_layer和mixed_value_layer,然后做轉置(說是維度變換更貼切一點);接著mixed_query_layer、mixed_key_layer做點積操作,然后除以注意力頭的尺寸的開方,做softmax操作;最后和mixed_value_layer相乘,得到注意力得分————矩陣計算代碼就很好的實現了self-attention。

    以上就是完成了self-attention,然后接下來就進入BertSelfOutput():

  • class BertSelfOutput(nn.Module):
  • def __init__(self, config):
  • super().__init__()
  • self.dense = nn.Linear(config.hidden_size, config.hidden_size)
  • self.LayerNorm = BertLayerNorm(config.hidden_size, eps=config.layer_norm_eps)
  • self.dropout = nn.Dropout(config.hidden_dropout_prob)
  • def forward(self, hidden_states, input_tensor):
  • hidden_states = self.dense(hidden_states)
  • hidden_states = self.dropout(hidden_states)
  • hidden_states = self.LayerNorm(hidden_states + input_tensor)
  • return hidden_states
  • 以上BertSelfOutput()代碼很簡單,把self-attention輸出的結果經過線性模型和dropout操作,最后做層歸一化。到這里就跳出了BertAttention()模型,然后就進入中間層BertIntermediate()。

    BertIntermediate

    BertIntermediate()作為中間層代碼很簡單:

  • class BertIntermediate(nn.Module):
  • def __init__(self, config):
  • super().__init__()
  • self.dense = nn.Linear(config.hidden_size, config.intermediate_size)
  • if isinstance(config.hidden_act, str):
  • self.intermediate_act_fn = ACT2FN[config.hidden_act]
  • else:
  • self.intermediate_act_fn = config.hidden_act
  • def forward(self, hidden_states):
  • hidden_states = self.dense(hidden_states)
  • hidden_states = self.intermediate_act_fn(hidden_states)
  • return hidden_states
  • 經過一個全連接層,由于config.hidden_size<config.intermediate_size,這里的Linear把特征空間變大了,然后進過了gelu激活函數,增加了特征的非線性性。

    BertOutput(config)

    跳出BertIntermediate()作為中間層后,就進入了BertOutput(config)模型,這個是BertLayer()模型的最后一個子模型。

  • class BertOutput(nn.Module):
  • def __init__(self, config):
  • super().__init__()
  • self.dense = nn.Linear(config.intermediate_size, config.hidden_size)
  • self.LayerNorm = BertLayerNorm(config.hidden_size, eps=config.layer_norm_eps)
  • self.dropout = nn.Dropout(config.hidden_dropout_prob)
  • def forward(self, hidden_states, input_tensor):
  • hidden_states = self.dense(hidden_states)
  • hidden_states = self.dropout(hidden_states)
  • hidden_states = self.LayerNorm(hidden_states + input_tensor)
  • return hidden_states
  • 經過線性模型和dropout操作,最后做層歸一化,把特征空間又縮小回來了。最后輸出一個hidden_states,這里就是一個BertLayer()的輸出了。

    BertPooler()

    然后經歷了12個BertLayer()的操作,一層一層的變換,最后得出的outputs進入BertPooler():

  • sequence_output = encoder_outputs[0]
  • pooled_output = self.pooler(sequence_output)
  • pooler代碼如下:

  • class BertPooler(nn.Module):
  • def __init__(self, config):
  • super().__init__()
  • self.dense = nn.Linear(config.hidden_size, config.hidden_size)
  • self.activation = nn.Tanh()
  • def forward(self, hidden_states):
  • # We "pool" the model by simply taking the hidden state corresponding
  • # to the first token.
  • first_token_tensor = hidden_states[:, 0]
  • pooled_output = self.dense(first_token_tensor)
  • pooled_output = self.activation(pooled_output)
  • return pooled_output
  • #以上的pooler作用要具體的去調試hidden_states的shape。
  • 由代碼可知這個pooler的功能就是把last_hidden_states的第二維的第一維也就是文本對應的第一個;。。。、。。

    以上差不多就是BertModel的具體實現,由于這個模型的代碼嵌套調用過多,可能理解起來有一定的困惑,那么接下來就需要一個圖片來可視化理解。上圖:

    上圖是huggingface中的BertModel的結構流程圖(簡圖,有很多疏漏的地方勿怪!),bertModel的輸入和基本的子模型以及數據的流向都顯示出來了,對應著代碼理解起來更加方便。黃色的圖形就是torch中的基本函數模塊(這里的Q、K和V不是),其他顏色的矩形就是模型,平行四邊形就是數據。

    以上就是對BertModel實現代碼的簡單解析,里面涉及到很多的細節:不同模型模塊的參數以及它們的維度信息,還有就是變量的維度變化,以及每個模型模塊的具體作用和意義,沒有去深究,讀者有精力的話可以自己去深究。

    三、Bert文本分類任務實戰

    ? ? ? ? 這里我們要寫一個使用transformers項目中的分類器來實現一個簡單的文本分類任務,這里我們沒有自己取重寫Dataloader以及模型的訓練,就是直接把transformers項目中的bert分類器拿過來進行fine-tune,工作量少,結果也比較好!當然也可以完全自己實現(前面也自己實現過一個基于bert的句子分類的任務——使用bert模型做句子分類,有興趣的可以移步),后續有時間的話可以寫一個各個模型文本分類任務的比較博客,更加熟練文本分類的一些代碼coding和知識——增加熟練度,也可以給大家分享一下。

    來看本文的transformers項目中的bert分類器進行fine-tune作文本分類的任務,在這個項目里面已經把全部的代碼寫好了,我們只需要把我們的文本處理成項目能夠識別和讀取的形式。簡單的分析一下,分類任務的代碼:

    主要的分類任務的代碼是在run_glue.py文件中,這里面定義了main函數,命令行參數接收器,模型的加載和調用,模型的訓練以及驗證,和數據讀取以及處理的功能模塊調用。

    我們看一下這里調用的分類模型,代碼是這樣的:

  • model = AutoModelForSequenceClassification.from_pretrained(
  • args.model_name_or_path,
  • from_tf=bool(".ckpt" in args.model_name_or_path),
  • config=config,
  • cache_dir=args.cache_dir,
  • )
  • 其實最終這里的AutoModelForSequenceClassification.from_pretrained()調用的是modeling_bert.py中的BertForSequenceClassification類,它就是具體的分類器實現:

  • class BertForSequenceClassification(BertPreTrainedModel):
  • def __init__(self, config):
  • super().__init__(config)
  • self.num_labels = config.num_labels
  • self.bert = BertModel(config)
  • self.dropout = nn.Dropout(config.hidden_dropout_prob)
  • self.classifier = nn.Linear(config.hidden_size, self.config.num_labels)
  • self.init_weights()
  • def forward(
  • self,
  • input_ids=None,
  • attention_mask=None,
  • token_type_ids=None,
  • position_ids=None,
  • head_mask=None,
  • inputs_embeds=None,
  • labels=None,
  • ):
  • outputs = self.bert(
  • input_ids,
  • attention_mask=attention_mask,
  • token_type_ids=token_type_ids,
  • position_ids=position_ids,
  • head_mask=head_mask,
  • inputs_embeds=inputs_embeds,
  • )
  • pooled_output = outputs[1]
  • pooled_output = self.dropout(pooled_output)
  • logits = self.classifier(pooled_output)
  • outputs = (logits,) + outputs[2:] # add hidden states and attention if they are here
  • if labels is not None:
  • if self.num_labels == 1:
  • # We are doing regression
  • loss_fct = MSELoss()
  • loss = loss_fct(logits.view(-1), labels.view(-1))
  • else:
  • loss_fct = CrossEntropyLoss()
  • loss = loss_fct(logits.view(-1, self.num_labels), labels.view(-1))
  • outputs = (loss,) + outputs
  • return outputs
  • 模型調用了BertModel,然后做使用nn.Linear(config.hidden_size, self.config.num_labels)做分類,loss函數是常用的交叉熵損失函數。以上就是分類器的一些簡單的分析。 我們要做的工作就是仿照項目里的代碼寫一個任務處理器:

    項目目錄結構:transformerer_local/data/glue.py,注意這里的transformerer_local原本應該是transformerer,我這里已經做了修改。在glue.py添加上我們的分類任務代碼——添加一個讀取文件中的文本然后,然后把每條數據序列化成Example,注意get_labels()函數,把自己的類別數目實現過來,代碼如下:

  • class MyownProcessor(DataProcessor):
  • """Processor for the CoLA data set (GLUE version)."""
  • def get_example_from_tensor_dict(self, tensor_dict):
  • """See base class."""
  • return InputExample(
  • tensor_dict["idx"].numpy(),
  • tensor_dict["sentence"].numpy().decode("utf-8"),
  • None,
  • str(tensor_dict["label"].numpy()),
  • )
  • def get_train_examples(self, data_dir):
  • """See base class."""
  • return self._create_examples(self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
  • def get_dev_examples(self, data_dir):
  • """See base class."""
  • return self._create_examples(self._read_tsv(os.path.join(data_dir, "dev.tsv")), "dev")
  • def get_predict_examples(self, data_dir):
  • return self._create_examples(self._read_tsv(os.path.join(data_dir, "test.tsv")), "predict")
  • def get_labels(self):
  • """See base class."""
  • return ["0", "1","2","3","4","5","6","7"]
  • def _create_examples(self, lines, set_type):
  • """Creates examples for the training and dev sets."""
  • examples = []
  • for (i, line) in enumerate(lines):
  • guid = "%s-%s" % (set_type, i)
  • if len(line)==2:
  • text_a = line[0]
  • label = line[1]
  • examples.append(InputExample(guid=guid, text_a=text_a, text_b=None, label=label))
  • else:
  • print(line)
  • return examples
  • 同時在驗證的時候,對應評價指標函數,我們這里不是binary,計算f1_score的時候要采用其他的策略:

    transformerer_local/data/metrics/__init__.py,注意這里的transformerer_local原本應該是transformerer,添加內容:

  • #添加多分類評價函數
  • def acc_and_f1_multi(preds, labels):
  • acc = simple_accuracy(preds, labels)
  • f1 = f1_score(y_true=labels, y_pred=preds,average='micro')
  • return {
  • "acc": acc,
  • "f1": f1,
  • "acc_and_f1": (acc + f1) / 2,
  • }
  • def glue_compute_metrics(task_name, preds, labels):
  • assert len(preds) == len(labels)
  • if task_name == "cola":
  • return {"mcc": matthews_corrcoef(labels, preds)}
  • elif task_name == "sst-2":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "mrpc":
  • return acc_and_f1(preds, labels)
  • elif task_name == "sts-b":
  • return pearson_and_spearman(preds, labels)
  • elif task_name == "qqp":
  • return acc_and_f1(preds, labels)
  • elif task_name == "mnli":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "mnli-mm":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "qnli":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "rte":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "wnli":
  • return {"acc": simple_accuracy(preds, labels)}
  • elif task_name == "hans":
  • return {"acc": simple_accuracy(preds, labels)}
  • #添加我們的多分類任務調用函數
  • elif task_name == "myown":
  • return acc_and_f1_multi(preds, labels)
  • else:
  • raise KeyError(task_name)
  • 添加內容就在注釋部分。

    OK,現在代碼部分已經做好了,接下來就是數據部分了。直接上數據:

    數據截圖部分就是上面這樣的,把pat_summary和ipc_class屬性提取出來,這里的數據質量比較好,然后只需要把超級長的文本去掉(長度大于510的):

    數據長度分布直方圖,發現幾乎全部都是小于510的長度,只有少部分比較長,只有128條,這里數據集總規模是24.8W條,可以把這少部分的直接去掉。然后把數據分割成訓練集和測試集比例(8:2),保存為tsv格式。

    接下來就是直接進行訓練了,編寫如下命令行,在train_glue_classification.sh文件中:

  • export TASK_NAME=myown
  • python -W ignore ./examples/run_glue.py \
  • --model_type bert \
  • --model_name_or_path ./pretrain_model/Chinese-BERT-wwm/ \
  • --task_name $TASK_NAME \
  • __do_train \
  • --do_eval \
  • --data_dir ./data_set/patent/ \
  • --max_seq_length 510 \
  • --per_gpu_eval_batch_size=8 \
  • --per_gpu_train_batch_size=8 \
  • --per_gpu_predict_batch_size=48 \
  • --learning_rate 2e-5 \
  • --num_train_epochs 5.0 \
  • --output_dir ./output/
  • 直接在終端上運行這個sh文件,bash train_glue_classification.sh。注意這里的訓練顯卡顯存得11G以上,不然跑步起來,batch_size不能太大。訓練過程中,一個epoch大概時間3.5小時,所以時間還要蠻久的。最后給出結果:

    可以看到acc=0.8508,一個8分類的任務準確率85%粗略一看還能接受。如果要詳細的分析,可以把每一類的準確率和召回率給弄出來,或者分析一下ROC,對模型的性能做詳細的分析,這里不做過多討論。另外關于這個模型的優化,怎么提高準確率,也不做考慮。

    ?

    小結:以上就是直接使用transformers項目中的bert分類器拿過來進行fine-tune,做文本分類,其實代碼都寫好了,我們只需要簡單的修改一下代碼和配置,就能很快的訓練好自己的分類器。

    四、Bert模型難點總結

    其實關于Bert模型還有很多細節可以去探究,這里推薦知乎上的一些文章:超細節的BERT/Transformer知識點。

    1、Bert模型怎么解決長文本問題?

    如果文本的長度不是特別長,511-600左右,可以直接把大于510的部分直接去掉,這是一種最粗暴的處理辦法。

    如果文本內容很長,而且內容也比較重要,那么就不能夠這么直接粗暴的處理了。主要思路是global norm + passage rank + sliding window——來自Amazon EMNLP的這篇文章:Multi-passage BERT。簡單的說一下sliding window,滑窗法就是把文檔分割成有部分重疊的短文本段落,然后把這些文本得出的向量拼接起來或者做mean pooling操作。具體的效果,要去做實驗。

    2、Bert的輸入向量Token Embedding、Segment Embedding、Position Embedding,它們都有自己的物理含義,為什么可以相加后輸入到模型中取呢?

    這個問題在知乎上已經有人提問了,回答的大佬很多。我個人傾向接受這個解釋:one hot向量concat后經過一個全連接等價于向量embedding后直接相加。

    Token Embedding、Segment Embedding、Position Embedding分別代表了文本的具體語義,段落含義和位置含義,現在要把這3個不同的向量一起放到模型中去訓練,我認為concat的操作就能完整的保留文本的含義。[input_ids] 、[token_type_ids] 和[position_ids]這3個向量,concat以后形成一個[input_ids token_type_ids position_ids]新的向量,這樣丟入模型中取訓練就應該是我們初始要的結果。但是在丟入模型之前這個向量[input_ids token_type_ids position_ids]是需要經過Embedding的,而[input_ids] 、[token_type_ids] 和[position_ids]先經過Embedding然后相加和上面的效果是等價的。這樣的好處是降低了參數的維度的同時達到了同樣的效果,所以就采用了直接相加。

    3、BERT在第一句前會加一個[CLS]標志,為什么?作用是什么?

    最后一層的transformer的輸出該位置的向量,由于本身并不具有任何意義,就能很公平的融合整個句子的含義,然后做下游任務的時候就很好了。

    其實在huggingface實現的bert代碼中,作者認為這個向量并不是很好,要想做下有任務,還是得靠自己取把最后一層的hidden_states[B,S,D]去做一些操作,比如mean pool操作。我這里沒有實驗過,只是拿來使用,在使用bert模型做句子分類一文中使用了這樣的思想。

    4、Bert模型的非線性來自什么地方?

    主要是來子前饋層的gelu激活函數和self-attention。

    5、Bert模型為何要使用多頭注意力機制?

    谷歌bert作者在論文中提到的是模型有多頭的話,就可以形成多個子空間,那么模型就可以去關注不同方面的信息。

    可以這樣理解,多頭attention機制確實有點類似多個卷積核的作用,可以捕捉到文本更多更豐富的信息。

    當然知乎有人專門研究這個問題,列舉了頭和頭直接的異同關系,作了一個比較綜合全面的回答,可以去閱讀!為什么Transformer 需要進行 Multi-head Attention?

    ?

    寫在最后:

    我個人理解的Bert模型就只有 這么多,其實Bert模型就是一個提取詞向量的語言模型,由于提取的詞向量能很好的包含文本的語義信息,它能夠做很多任務并且取得不錯的效果。NER、關系抽取、文本相似度計算、文本分類、閱讀理解等等任務Bert都能做。

    這個博客個人算是花了一定的精力了的(五一到現在,差不多10天時間吧),作為這段時間以來學習NLP的一個總結還是很有收獲感的。加油!繼續努力!當然博客可能寫的不是干貨,也許還有錯誤的地方,作者水平有限,望大家提出改正!

    ?

    參考文章

    一文讀懂bert模型

    超細節的BERT/Transformer知識點

總結

以上是生活随笔為你收集整理的bert模型简介、transformers中bert模型源码阅读、分类任务实战和难点总结的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

免费无码午夜福利片69 | 国产av久久久久精东av | 久久精品国产一区二区三区 | 国产精品亚洲五月天高清 | 免费看少妇作爱视频 | www国产亚洲精品久久网站 | 99精品视频在线观看免费 | 国产精品办公室沙发 | 精品偷自拍另类在线观看 | 国产午夜视频在线观看 | 1000部啪啪未满十八勿入下载 | 国产精品丝袜黑色高跟鞋 | 日日天干夜夜狠狠爱 | 国产国语老龄妇女a片 | 九九综合va免费看 | 国产卡一卡二卡三 | 99久久久无码国产精品免费 | 成人精品视频一区二区三区尤物 | 欧美性生交活xxxxxdddd | 国产人妻人伦精品1国产丝袜 | 中文字幕av伊人av无码av | 亚洲の无码国产の无码步美 | 丰满少妇弄高潮了www | 午夜熟女插插xx免费视频 | 色一情一乱一伦一视频免费看 | 午夜精品一区二区三区的区别 | 99久久99久久免费精品蜜桃 | 国产一区二区三区精品视频 | 熟女俱乐部五十路六十路av | 51国偷自产一区二区三区 | 色综合久久久无码网中文 | 中文字幕乱码人妻无码久久 | 久久午夜无码鲁丝片 | 日本xxxx色视频在线观看免费 | 亚洲人亚洲人成电影网站色 | 熟妇激情内射com | 亚洲第一网站男人都懂 | 日本丰满护士爆乳xxxx | 狠狠色噜噜狠狠狠7777奇米 | 国产精品-区区久久久狼 | 亚洲 a v无 码免 费 成 人 a v | 欧美人与牲动交xxxx | 亚洲成色www久久网站 | 久久久国产一区二区三区 | 九九久久精品国产免费看小说 | 日日麻批免费40分钟无码 | 久久精品国产大片免费观看 | 精品国产乱码久久久久乱码 | 国产精品久久久久久无码 | 国产三级精品三级男人的天堂 | 精品一区二区三区无码免费视频 | 一本无码人妻在中文字幕免费 | 国产性生大片免费观看性 | 精品人妻人人做人人爽夜夜爽 | 玩弄少妇高潮ⅹxxxyw | 人人妻人人澡人人爽欧美精品 | 亚洲阿v天堂在线 | 人人澡人人透人人爽 | 永久免费精品精品永久-夜色 | 1000部啪啪未满十八勿入下载 | 18黄暴禁片在线观看 | 日本免费一区二区三区最新 | 国产国语老龄妇女a片 | 久久久无码中文字幕久... | 高清无码午夜福利视频 | 玩弄少妇高潮ⅹxxxyw | 国产精品免费大片 | 久久精品女人天堂av免费观看 | 中文久久乱码一区二区 | 亚洲精品国产a久久久久久 | 又大又紧又粉嫩18p少妇 | 人妻少妇精品久久 | 无码免费一区二区三区 | 国产 浪潮av性色四虎 | 色妞www精品免费视频 | 300部国产真实乱 | 无码国模国产在线观看 | 人人妻人人藻人人爽欧美一区 | 荫蒂添的好舒服视频囗交 | 亚洲人成影院在线无码按摩店 | 免费观看又污又黄的网站 | 色一情一乱一伦一区二区三欧美 | 亚洲日韩一区二区 | av无码不卡在线观看免费 | 玩弄少妇高潮ⅹxxxyw | 免费男性肉肉影院 | 国产人成高清在线视频99最全资源 | 国产97人人超碰caoprom | 中文字幕无码免费久久99 | 麻豆蜜桃av蜜臀av色欲av | 久久精品女人的天堂av | 日韩精品无码一本二本三本色 | 亚洲欧美中文字幕5发布 | 樱花草在线播放免费中文 | 久久久中文字幕日本无吗 | 久精品国产欧美亚洲色aⅴ大片 | 少妇高潮喷潮久久久影院 | 欧美熟妇另类久久久久久不卡 | 日日碰狠狠躁久久躁蜜桃 | 99精品国产综合久久久久五月天 | 亚洲精品久久久久中文第一幕 | 国产一区二区不卡老阿姨 | 无码av中文字幕免费放 | 国产免费久久精品国产传媒 | 人人妻人人澡人人爽欧美一区九九 | 欧美35页视频在线观看 | 精品久久久中文字幕人妻 | 精品乱码久久久久久久 | 偷窥日本少妇撒尿chinese | 玩弄人妻少妇500系列视频 | 无遮挡啪啪摇乳动态图 | 亚洲欧美国产精品专区久久 | 无套内射视频囯产 | 97资源共享在线视频 | 秋霞成人午夜鲁丝一区二区三区 | а√天堂www在线天堂小说 | 久久99精品久久久久婷婷 | 老太婆性杂交欧美肥老太 | 亚洲另类伦春色综合小说 | 国产精品a成v人在线播放 | 精品无码国产自产拍在线观看蜜 | 久久久久久国产精品无码下载 | 兔费看少妇性l交大片免费 | 国产偷国产偷精品高清尤物 | 亚洲综合在线一区二区三区 | 亚洲精品成人福利网站 | 国内精品人妻无码久久久影院蜜桃 | 精品一区二区三区波多野结衣 | 亚洲成a人片在线观看无码 | 日韩人妻无码中文字幕视频 | 日本护士xxxxhd少妇 | 丰满少妇高潮惨叫视频 | 欧美自拍另类欧美综合图片区 | 青青青爽视频在线观看 | 精品无码国产一区二区三区av | 亚洲精品国产精品乱码不卡 | 国产精品对白交换视频 | 免费观看的无遮挡av | 国产亚洲视频中文字幕97精品 | 国产熟妇高潮叫床视频播放 | 国产内射老熟女aaaa | 欧美日韩在线亚洲综合国产人 | 牲欲强的熟妇农村老妇女 | 亚洲欧美国产精品专区久久 | 国产成人人人97超碰超爽8 | 国产精品18久久久久久麻辣 | 国产精品久久久午夜夜伦鲁鲁 | 亚洲区欧美区综合区自拍区 | 国产亚洲日韩欧美另类第八页 | 欧美日韩人成综合在线播放 | 国产精品沙发午睡系列 | 午夜福利电影 | 亚洲精品一区三区三区在线观看 | 欧美野外疯狂做受xxxx高潮 | 日韩av无码一区二区三区 | 偷窥日本少妇撒尿chinese | 日本肉体xxxx裸交 | 波多野结衣av在线观看 | 国产精品久久精品三级 | 搡女人真爽免费视频大全 | 亚洲成av人片在线观看无码不卡 | 最新版天堂资源中文官网 | 18精品久久久无码午夜福利 | 内射白嫩少妇超碰 | 激情内射日本一区二区三区 | 色一情一乱一伦一区二区三欧美 | 女人高潮内射99精品 | 精品无码一区二区三区的天堂 | 欧美喷潮久久久xxxxx | 未满小14洗澡无码视频网站 | 亚洲国产精品久久久久久 | 黑森林福利视频导航 | 欧美真人作爱免费视频 | 午夜精品一区二区三区的区别 | 无码av中文字幕免费放 | 精品无码成人片一区二区98 | 女人被男人爽到呻吟的视频 | 成人无码视频免费播放 | 麻豆精产国品 | 国产一区二区三区四区五区加勒比 | 中文字幕无码视频专区 | 色综合视频一区二区三区 | 精品一区二区不卡无码av | 色婷婷香蕉在线一区二区 | 亚洲国产精品美女久久久久 | 国产口爆吞精在线视频 | 麻豆精品国产精华精华液好用吗 | 永久免费观看国产裸体美女 | 51国偷自产一区二区三区 | 亚洲国产午夜精品理论片 | 国内精品人妻无码久久久影院蜜桃 | 中文字幕 亚洲精品 第1页 | 天天拍夜夜添久久精品大 | 中文字幕久久久久人妻 | 国内丰满熟女出轨videos | 久久aⅴ免费观看 | 人妻中文无码久热丝袜 | 永久免费精品精品永久-夜色 | 无码av免费一区二区三区试看 | 一本久道久久综合婷婷五月 | 少妇人妻av毛片在线看 | 国精产品一品二品国精品69xx | 婷婷综合久久中文字幕蜜桃三电影 | 人妻中文无码久热丝袜 | 夫妻免费无码v看片 | 欧美 丝袜 自拍 制服 另类 | 国产成人无码av一区二区 | 国产av一区二区三区最新精品 | 欧美精品在线观看 | av人摸人人人澡人人超碰下载 | 99麻豆久久久国产精品免费 | 最近中文2019字幕第二页 | 精品人妻中文字幕有码在线 | 天堂一区人妻无码 | 精品人妻中文字幕有码在线 | 欧美老人巨大xxxx做受 | 国产av人人夜夜澡人人爽麻豆 | 久久久久国色av免费观看性色 | 亚洲欧美色中文字幕在线 | 亚洲а∨天堂久久精品2021 | 国语自产偷拍精品视频偷 | 无码国模国产在线观看 | 国产精品99久久精品爆乳 | 久久精品丝袜高跟鞋 | 欧美国产日韩久久mv | 伊人久久婷婷五月综合97色 | 无码午夜成人1000部免费视频 | 乱中年女人伦av三区 | 欧美自拍另类欧美综合图片区 | 欧美日韩色另类综合 | 亚洲中文字幕无码中文字在线 | 青青草原综合久久大伊人精品 | 亚洲中文字幕久久无码 | 日韩精品a片一区二区三区妖精 | 精品 日韩 国产 欧美 视频 | av无码久久久久不卡免费网站 | 免费乱码人妻系列无码专区 | 十八禁真人啪啪免费网站 | 国产区女主播在线观看 | 波多野结衣av一区二区全免费观看 | 特级做a爰片毛片免费69 | 久久久婷婷五月亚洲97号色 | 欧美一区二区三区 | 日本精品高清一区二区 | 丁香啪啪综合成人亚洲 | 国产人妻大战黑人第1集 | www一区二区www免费 | 国内老熟妇对白xxxxhd | 少妇激情av一区二区 | 国产人妻精品一区二区三区不卡 | 国产欧美熟妇另类久久久 | 国产免费观看黄av片 | 免费国产黄网站在线观看 | 亚洲理论电影在线观看 | 性欧美大战久久久久久久 | 黑人巨大精品欧美一区二区 | 国内精品人妻无码久久久影院蜜桃 | 中文无码成人免费视频在线观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲熟悉妇女xxx妇女av | 国产一精品一av一免费 | 99精品久久毛片a片 | 国产在线精品一区二区三区直播 | 色欲综合久久中文字幕网 | 国产9 9在线 | 中文 | 国产av久久久久精东av | 色综合久久久无码中文字幕 | 婷婷五月综合缴情在线视频 | v一区无码内射国产 | √天堂中文官网8在线 | 丰满人妻被黑人猛烈进入 | www一区二区www免费 | 国产亚洲精品久久久久久大师 | 亚洲欧洲中文日韩av乱码 | 国产另类ts人妖一区二区 | aⅴ亚洲 日韩 色 图网站 播放 | 国产亚洲精品久久久久久大师 | av人摸人人人澡人人超碰下载 | 国产两女互慰高潮视频在线观看 | 亚洲色在线无码国产精品不卡 | 国产精品99久久精品爆乳 | 成 人 免费观看网站 | 亚洲自偷自偷在线制服 | 日日噜噜噜噜夜夜爽亚洲精品 | 免费播放一区二区三区 | 欧美丰满老熟妇xxxxx性 | 国产一区二区不卡老阿姨 | 国产精品无码mv在线观看 | 俄罗斯老熟妇色xxxx | 精品 日韩 国产 欧美 视频 | 天天躁夜夜躁狠狠是什么心态 | 色妞www精品免费视频 | 国产成人无码av片在线观看不卡 | 国产卡一卡二卡三 | 欧美一区二区三区视频在线观看 | 亚洲人成网站在线播放942 | 久久久久久久久蜜桃 | 成人无码视频免费播放 | 亚洲毛片av日韩av无码 | 亚洲爆乳无码专区 | 18黄暴禁片在线观看 | 久久99精品久久久久久 | 色婷婷av一区二区三区之红樱桃 | 四十如虎的丰满熟妇啪啪 | 久久zyz资源站无码中文动漫 | а√天堂www在线天堂小说 | 日本www一道久久久免费榴莲 | 四虎永久在线精品免费网址 | 国产一精品一av一免费 | 人人妻人人藻人人爽欧美一区 | 久久精品国产大片免费观看 | 熟女少妇在线视频播放 | 久久久av男人的天堂 | 丰满少妇女裸体bbw | 精品国产麻豆免费人成网站 | 少妇高潮喷潮久久久影院 | 久久综合狠狠综合久久综合88 | 男女猛烈xx00免费视频试看 | 伦伦影院午夜理论片 | 精品人妻av区 | 秋霞特色aa大片 | 一本久久a久久精品vr综合 | 西西人体www44rt大胆高清 | 国产精品理论片在线观看 | 午夜福利一区二区三区在线观看 | 色一情一乱一伦一视频免费看 | 99久久久国产精品无码免费 | 国产小呦泬泬99精品 | 精品久久久久久人妻无码中文字幕 | 国产精品无码mv在线观看 | 国产莉萝无码av在线播放 | 欧美日韩在线亚洲综合国产人 | 水蜜桃av无码 | 国产精品毛片一区二区 | 久久午夜夜伦鲁鲁片无码免费 | 性色欲网站人妻丰满中文久久不卡 | 美女黄网站人色视频免费国产 | 久久aⅴ免费观看 | 国产极品视觉盛宴 | 东京无码熟妇人妻av在线网址 | 乱人伦中文视频在线观看 | 日本熟妇大屁股人妻 | 久久天天躁狠狠躁夜夜免费观看 | 青青青爽视频在线观看 | 激情内射亚州一区二区三区爱妻 | 国产97色在线 | 免 | 中国女人内谢69xxxxxa片 | 男女性色大片免费网站 | 欧美日韩在线亚洲综合国产人 | 亚洲码国产精品高潮在线 | 少妇厨房愉情理9仑片视频 | 亚洲国产精品无码一区二区三区 | 国产免费久久久久久无码 | 国产精品免费大片 | 青草视频在线播放 | 55夜色66夜色国产精品视频 | 撕开奶罩揉吮奶头视频 | 国语精品一区二区三区 | 1000部啪啪未满十八勿入下载 | 国产精品-区区久久久狼 | 国产绳艺sm调教室论坛 | 国产明星裸体无码xxxx视频 | 水蜜桃色314在线观看 | 又粗又大又硬毛片免费看 | 久久久中文字幕日本无吗 | 国产做国产爱免费视频 | 少妇激情av一区二区 | 国产区女主播在线观看 | 人妻中文无码久热丝袜 | 永久免费精品精品永久-夜色 | 中文字幕乱码中文乱码51精品 | 久久国产精品_国产精品 | 国产成人无码av在线影院 | 久久精品人人做人人综合 | 亚洲中文字幕无码一久久区 | 亚洲狠狠婷婷综合久久 | 国产精品a成v人在线播放 | 熟妇人妻无码xxx视频 | 国产人妻大战黑人第1集 | 图片小说视频一区二区 | 日日天日日夜日日摸 | 色欲久久久天天天综合网精品 | 水蜜桃av无码 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 精品水蜜桃久久久久久久 | 成人免费视频在线观看 | 久久久久人妻一区精品色欧美 | 日韩视频 中文字幕 视频一区 | 狠狠色噜噜狠狠狠7777奇米 | 一本久道高清无码视频 | 久久亚洲日韩精品一区二区三区 | 国产精品多人p群无码 | 噜噜噜亚洲色成人网站 | 欧美熟妇另类久久久久久不卡 | 蜜桃av抽搐高潮一区二区 | 精品一区二区不卡无码av | 5858s亚洲色大成网站www | 男女猛烈xx00免费视频试看 | 国产一区二区三区四区五区加勒比 | 美女极度色诱视频国产 | 国产精品第一区揄拍无码 | 欧美午夜特黄aaaaaa片 | 中文字幕av日韩精品一区二区 | 欧洲欧美人成视频在线 | 丰满护士巨好爽好大乳 | 麻豆人妻少妇精品无码专区 | 纯爱无遮挡h肉动漫在线播放 | 亚洲爆乳大丰满无码专区 | 亚洲色偷偷偷综合网 | 国产九九九九九九九a片 | 中文毛片无遮挡高清免费 | 在线播放无码字幕亚洲 | www国产精品内射老师 | 水蜜桃av无码 | 成人亚洲精品久久久久 | 久久伊人色av天堂九九小黄鸭 | 国产午夜无码精品免费看 | 成人动漫在线观看 | 久久久久成人片免费观看蜜芽 | 久久97精品久久久久久久不卡 | 日本熟妇乱子伦xxxx | 精品人妻人人做人人爽夜夜爽 | 一本久久a久久精品vr综合 | 日产国产精品亚洲系列 | 一本久道久久综合狠狠爱 | 最新国产乱人伦偷精品免费网站 | 欧美精品国产综合久久 | 亚洲成av人片在线观看无码不卡 | 国产精品亚洲综合色区韩国 | 成在人线av无码免观看麻豆 | 久久综合九色综合97网 | 国产精品美女久久久网av | 国产在线无码精品电影网 | 人人妻人人澡人人爽人人精品 | 国产精品久久久久无码av色戒 | 鲁一鲁av2019在线 | 久久久中文字幕日本无吗 | 亚洲人成网站在线播放942 | 超碰97人人射妻 | 精品国产成人一区二区三区 | 图片区 小说区 区 亚洲五月 | 97人妻精品一区二区三区 | 国产精品亚洲一区二区三区喷水 | 亚洲国产日韩a在线播放 | 久久99精品久久久久久动态图 | 国产成人精品久久亚洲高清不卡 | 97人妻精品一区二区三区 | 欧洲熟妇色 欧美 | 国产日产欧产精品精品app | 精品亚洲韩国一区二区三区 | 红桃av一区二区三区在线无码av | 亚洲成av人影院在线观看 | 无码精品人妻一区二区三区av | 狠狠色色综合网站 | 丰满诱人的人妻3 | 宝宝好涨水快流出来免费视频 | 中文精品无码中文字幕无码专区 | 久久久av男人的天堂 | 波多野结衣av在线观看 | 国产美女极度色诱视频www | 日本爽爽爽爽爽爽在线观看免 | 午夜熟女插插xx免费视频 | 人人妻人人澡人人爽人人精品 | 亚洲综合另类小说色区 | 大胆欧美熟妇xx | 亚洲精品久久久久中文第一幕 | 99er热精品视频 | 国产在线精品一区二区高清不卡 | 午夜理论片yy44880影院 | 成人亚洲精品久久久久软件 | 领导边摸边吃奶边做爽在线观看 | 性色欲情网站iwww九文堂 | 色婷婷av一区二区三区之红樱桃 | 色一情一乱一伦一视频免费看 | 亚洲 日韩 欧美 成人 在线观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 中文字幕久久久久人妻 | 2020久久香蕉国产线看观看 | 亚洲熟妇色xxxxx亚洲 | 色婷婷欧美在线播放内射 | 狂野欧美性猛交免费视频 | 无码av中文字幕免费放 | 亚洲中文字幕成人无码 | 国精产品一区二区三区 | 无套内谢老熟女 | 国内精品久久久久久中文字幕 | 在教室伦流澡到高潮hnp视频 | 成人性做爰aaa片免费看 | 久久久久久av无码免费看大片 | 麻豆蜜桃av蜜臀av色欲av | 日韩av无码一区二区三区 | 午夜精品一区二区三区在线观看 | √天堂中文官网8在线 | 免费无码一区二区三区蜜桃大 | 亚洲综合伊人久久大杳蕉 | 国产精品无码永久免费888 | 日日摸日日碰夜夜爽av | 国产性生交xxxxx无码 | 人妻少妇被猛烈进入中文字幕 | 国产精品久久久久久久9999 | 国产精品手机免费 | 欧美黑人性暴力猛交喷水 | 色五月五月丁香亚洲综合网 | 无码福利日韩神码福利片 | 亚洲大尺度无码无码专区 | 欧美精品免费观看二区 | 日韩人妻少妇一区二区三区 | 粗大的内捧猛烈进出视频 | 无码任你躁久久久久久久 | 77777熟女视频在线观看 а天堂中文在线官网 | 一本久久a久久精品亚洲 | 日日橹狠狠爱欧美视频 | 亚洲理论电影在线观看 | 国产精品无码mv在线观看 | 久在线观看福利视频 | 人人妻人人藻人人爽欧美一区 | 天天摸天天碰天天添 | 四虎影视成人永久免费观看视频 | 波多野42部无码喷潮在线 | 黑人粗大猛烈进出高潮视频 | 岛国片人妻三上悠亚 | 亚洲精品国产第一综合99久久 | 曰韩无码二三区中文字幕 | 精品国产av色一区二区深夜久久 | 在线欧美精品一区二区三区 | 中文字幕无码av波多野吉衣 | 水蜜桃亚洲一二三四在线 | 成人亚洲精品久久久久 | 天堂一区人妻无码 | 在线a亚洲视频播放在线观看 | 亚洲色欲久久久综合网东京热 | 久久久久亚洲精品男人的天堂 | 国产成人午夜福利在线播放 | 久久久无码中文字幕久... | 高潮毛片无遮挡高清免费视频 | 亚洲精品久久久久avwww潮水 | 国产精品.xx视频.xxtv | 亚洲第一网站男人都懂 | 狠狠色色综合网站 | 天天摸天天碰天天添 | 牲欲强的熟妇农村老妇女视频 | 无套内射视频囯产 | 东京热男人av天堂 | 亚洲日本va午夜在线电影 | 丁香花在线影院观看在线播放 | 一区二区传媒有限公司 | 老司机亚洲精品影院 | 亚洲精品国偷拍自产在线麻豆 | 国产香蕉尹人视频在线 | 亚洲性无码av中文字幕 | 女高中生第一次破苞av | 中文字幕+乱码+中文字幕一区 | 日韩精品久久久肉伦网站 | 亚洲精品中文字幕 | 亚洲综合久久一区二区 | 在线а√天堂中文官网 | 久久无码人妻影院 | 久久亚洲中文字幕精品一区 | 5858s亚洲色大成网站www | 熟妇人妻无码xxx视频 | 成人aaa片一区国产精品 | 天海翼激烈高潮到腰振不止 | 国产精品久久久久久久9999 | 天堂久久天堂av色综合 | 国产精品美女久久久久av爽李琼 | 扒开双腿疯狂进出爽爽爽视频 | 男女性色大片免费网站 | 2019nv天堂香蕉在线观看 | 免费无码的av片在线观看 | 午夜精品一区二区三区的区别 | 99精品无人区乱码1区2区3区 | 鲁一鲁av2019在线 | 中文无码成人免费视频在线观看 | 狂野欧美激情性xxxx | 波多野结衣一区二区三区av免费 | 无遮挡国产高潮视频免费观看 | 国产舌乚八伦偷品w中 | 亚洲中文字幕久久无码 | 兔费看少妇性l交大片免费 | 色婷婷综合中文久久一本 | 亚洲娇小与黑人巨大交 | 亚洲中文字幕无码中字 | 亚洲综合在线一区二区三区 | 国产一区二区三区日韩精品 | 久久久久久av无码免费看大片 | 久久综合香蕉国产蜜臀av | 牲交欧美兽交欧美 | 色综合久久中文娱乐网 | 色婷婷综合中文久久一本 | 一本加勒比波多野结衣 | 精品无码国产自产拍在线观看蜜 | aⅴ在线视频男人的天堂 | 亚洲国产午夜精品理论片 | 一二三四社区在线中文视频 | 国产精品鲁鲁鲁 | 黑人大群体交免费视频 | 欧美熟妇另类久久久久久多毛 | 久久人人97超碰a片精品 | 国产 浪潮av性色四虎 | 成在人线av无码免观看麻豆 | 一本色道婷婷久久欧美 | 成人免费无码大片a毛片 | 少妇激情av一区二区 | 性欧美牲交xxxxx视频 | 天堂亚洲免费视频 | av香港经典三级级 在线 | 亚洲精品国产精品乱码视色 | 男女性色大片免费网站 | 亚洲精品无码人妻无码 | 精品人妻人人做人人爽夜夜爽 | 狠狠色丁香久久婷婷综合五月 | 亚洲人成影院在线无码按摩店 | 伊人久久大香线蕉av一区二区 | 中文字幕亚洲情99在线 | 国产精品久久久久久久9999 | 亚洲aⅴ无码成人网站国产app | 午夜丰满少妇性开放视频 | 亚洲精品一区二区三区四区五区 | 中文字幕人妻无码一区二区三区 | 亚洲性无码av中文字幕 | 色偷偷人人澡人人爽人人模 | 久久人妻内射无码一区三区 | 国内少妇偷人精品视频免费 | 老熟女重囗味hdxx69 | 九九久久精品国产免费看小说 | 欧美人与善在线com | 成人试看120秒体验区 | 国产内射老熟女aaaa | 中文无码成人免费视频在线观看 | 日本饥渴人妻欲求不满 | 在线a亚洲视频播放在线观看 | 少女韩国电视剧在线观看完整 | 国产香蕉97碰碰久久人人 | 欧美人与物videos另类 | 日日碰狠狠丁香久燥 | 日韩av无码中文无码电影 | 国产精品亚洲а∨无码播放麻豆 | 中文毛片无遮挡高清免费 | 国内综合精品午夜久久资源 | 亚洲色大成网站www国产 | 波多野结衣一区二区三区av免费 | 一二三四在线观看免费视频 | 日本一本二本三区免费 | 中文字幕+乱码+中文字幕一区 | 国产成人无码午夜视频在线观看 | 中文字幕无码av激情不卡 | 色诱久久久久综合网ywww | 国产香蕉尹人视频在线 | 内射老妇bbwx0c0ck | 97se亚洲精品一区 | 美女极度色诱视频国产 | 青春草在线视频免费观看 | 亚洲精品美女久久久久久久 | 国产精品无套呻吟在线 | 欧美国产日韩久久mv | 天干天干啦夜天干天2017 | 午夜福利试看120秒体验区 | 男人和女人高潮免费网站 | 性史性农村dvd毛片 | 蜜桃av抽搐高潮一区二区 | 漂亮人妻洗澡被公强 日日躁 | 色一情一乱一伦一区二区三欧美 | 日本精品久久久久中文字幕 | 欧美日本精品一区二区三区 | 亚洲aⅴ无码成人网站国产app | 久久久久国色av免费观看性色 | 无码任你躁久久久久久久 | 人人妻人人澡人人爽欧美精品 | 亚洲s码欧洲m码国产av | 日本大乳高潮视频在线观看 | 成人试看120秒体验区 | 少妇激情av一区二区 | 久久伊人色av天堂九九小黄鸭 | 男女超爽视频免费播放 | 小鲜肉自慰网站xnxx | 狠狠亚洲超碰狼人久久 | 在线播放亚洲第一字幕 | 国产精品久久久久久亚洲影视内衣 | 美女扒开屁股让男人桶 | 永久免费观看美女裸体的网站 | 中国女人内谢69xxxxxa片 | 久久久久久亚洲精品a片成人 | 性色欲网站人妻丰满中文久久不卡 | 黑人玩弄人妻中文在线 | 在线观看免费人成视频 | 特黄特色大片免费播放器图片 | 国产在线精品一区二区高清不卡 | 亚洲精品中文字幕 | 欧美一区二区三区 | 日本一本二本三区免费 | 欧美乱妇无乱码大黄a片 | 久久综合给合久久狠狠狠97色 | 波多野结衣乳巨码无在线观看 | √天堂中文官网8在线 | 国产口爆吞精在线视频 | 国产精品久久久久无码av色戒 | 女人被爽到呻吟gif动态图视看 | 伊在人天堂亚洲香蕉精品区 | 国产偷国产偷精品高清尤物 | 久久天天躁狠狠躁夜夜免费观看 | 中文字幕 人妻熟女 | 成人一在线视频日韩国产 | 人人妻人人澡人人爽欧美一区九九 | 午夜精品久久久内射近拍高清 | 亚洲精品国产品国语在线观看 | 国产精品内射视频免费 | 国产小呦泬泬99精品 | 精品熟女少妇av免费观看 | 无码人妻丰满熟妇区毛片18 | 国产免费久久久久久无码 | 国产人妻精品午夜福利免费 | 亚洲精品成人av在线 | 亚洲欧美国产精品专区久久 | 中国女人内谢69xxxxxa片 | 水蜜桃av无码 | 激情综合激情五月俺也去 | 人人超人人超碰超国产 | 妺妺窝人体色www婷婷 | 中文字幕+乱码+中文字幕一区 | 十八禁真人啪啪免费网站 | 一本精品99久久精品77 | 欧美亚洲国产一区二区三区 | 天天爽夜夜爽夜夜爽 | 国产精品亚洲а∨无码播放麻豆 | 欧美freesex黑人又粗又大 | 久久综合给合久久狠狠狠97色 | 国产亚洲精品久久久久久久 | 国产真实夫妇视频 | 欧美国产亚洲日韩在线二区 | 色五月五月丁香亚洲综合网 | 国产欧美精品一区二区三区 | 中国大陆精品视频xxxx | 中文字幕无码人妻少妇免费 | 无码人妻少妇伦在线电影 | 2019nv天堂香蕉在线观看 | 精品久久8x国产免费观看 | 欧美变态另类xxxx | 国内老熟妇对白xxxxhd | 亚洲成av人片天堂网无码】 | 亚洲精品一区二区三区在线 | 日本大香伊一区二区三区 | 国产午夜手机精彩视频 | 人人爽人人爽人人片av亚洲 | 日本成熟视频免费视频 | 中文字幕av无码一区二区三区电影 | 久久国产精品偷任你爽任你 | 免费人成在线观看网站 | 性色欲网站人妻丰满中文久久不卡 | 亚洲色成人中文字幕网站 | 成人精品视频一区二区三区尤物 | 中文字幕无码人妻少妇免费 | 国产精品久久久久影院嫩草 | 午夜精品久久久久久久久 | 丰满少妇弄高潮了www | 无码人妻精品一区二区三区下载 | 黑人大群体交免费视频 | 亚洲无人区一区二区三区 | 少妇高潮喷潮久久久影院 | 国产精华av午夜在线观看 | 奇米影视7777久久精品人人爽 | 九九热爱视频精品 | 特大黑人娇小亚洲女 | 国产艳妇av在线观看果冻传媒 | а天堂中文在线官网 | 人妻夜夜爽天天爽三区 | 国产 浪潮av性色四虎 | 免费网站看v片在线18禁无码 | 亚洲a无码综合a国产av中文 | 麻豆国产人妻欲求不满 | 99er热精品视频 | 亚洲va中文字幕无码久久不卡 | 亚洲中文字幕无码一久久区 | 亚洲日韩中文字幕在线播放 | 亚洲无人区午夜福利码高清完整版 | 久精品国产欧美亚洲色aⅴ大片 | 麻豆国产丝袜白领秘书在线观看 | 亚洲人亚洲人成电影网站色 | 久久人人爽人人爽人人片ⅴ | 夜先锋av资源网站 | 中文字幕人妻无码一区二区三区 | 少妇性l交大片 | 欧美日韩一区二区综合 | 丰满人妻翻云覆雨呻吟视频 | 日日夜夜撸啊撸 | 午夜福利一区二区三区在线观看 | 婷婷五月综合缴情在线视频 | 国产精品va在线播放 | 18禁黄网站男男禁片免费观看 | 人妻尝试又大又粗久久 | 人妻无码αv中文字幕久久琪琪布 | 十八禁视频网站在线观看 | 老太婆性杂交欧美肥老太 | 好屌草这里只有精品 | 国产精品久久久一区二区三区 | 国产精华av午夜在线观看 | 免费播放一区二区三区 | 麻豆国产丝袜白领秘书在线观看 | 成人亚洲精品久久久久 | 国产网红无码精品视频 | 扒开双腿吃奶呻吟做受视频 | 日日躁夜夜躁狠狠躁 | 亚洲精品综合一区二区三区在线 | 国产人成高清在线视频99最全资源 | 国内少妇偷人精品视频免费 | 国产午夜手机精彩视频 | 亚洲乱码中文字幕在线 | 精品欧洲av无码一区二区三区 | 国内精品久久毛片一区二区 | 亚洲成av人片天堂网无码】 | 国产又爽又猛又粗的视频a片 | 人妻天天爽夜夜爽一区二区 | 国产偷国产偷精品高清尤物 | 亚洲经典千人经典日产 | 亚洲日韩av片在线观看 | 亚欧洲精品在线视频免费观看 | 中国大陆精品视频xxxx | 欧美野外疯狂做受xxxx高潮 | 东京无码熟妇人妻av在线网址 | 麻花豆传媒剧国产免费mv在线 | 欧美日韩人成综合在线播放 | 东京热男人av天堂 | 亚洲一区二区三区无码久久 | 爽爽影院免费观看 | 国产乱人偷精品人妻a片 | 亚洲乱亚洲乱妇50p | 久久久中文字幕日本无吗 | 最新国产乱人伦偷精品免费网站 | 又色又爽又黄的美女裸体网站 | 午夜理论片yy44880影院 | 国产一精品一av一免费 | 国产人妖乱国产精品人妖 | 久9re热视频这里只有精品 | 日本大乳高潮视频在线观看 | 国产另类ts人妖一区二区 | 婷婷六月久久综合丁香 | 国产又爽又黄又刺激的视频 | 一本加勒比波多野结衣 | 国产亚洲精品久久久久久久 | 久久婷婷五月综合色国产香蕉 | 日韩人妻少妇一区二区三区 | 国产乡下妇女做爰 | 日韩精品无码一本二本三本色 | 色综合久久网 | 丝袜美腿亚洲一区二区 | 无码国产激情在线观看 | 丝袜足控一区二区三区 | 自拍偷自拍亚洲精品被多人伦好爽 | 天天躁日日躁狠狠躁免费麻豆 | 精品国偷自产在线视频 | 欧美成人免费全部网站 | 国产精品久久精品三级 | 精品国产青草久久久久福利 | 亚洲爆乳无码专区 | 日本大香伊一区二区三区 | 日本免费一区二区三区最新 | 99精品无人区乱码1区2区3区 | 5858s亚洲色大成网站www | 成人亚洲精品久久久久 | 亚洲自偷精品视频自拍 | 野外少妇愉情中文字幕 | 日韩精品无码一本二本三本色 | 两性色午夜免费视频 | 色婷婷综合激情综在线播放 | 国产热a欧美热a在线视频 | 亚洲欧美精品aaaaaa片 | 欧美精品一区二区精品久久 | 亚洲熟妇色xxxxx欧美老妇y | 性史性农村dvd毛片 | 99久久精品日本一区二区免费 | 少妇久久久久久人妻无码 | 初尝人妻少妇中文字幕 | 欧美色就是色 | 久久综合香蕉国产蜜臀av | 色偷偷人人澡人人爽人人模 | 久久无码人妻影院 | 中文字幕av伊人av无码av | 亚洲阿v天堂在线 | 秋霞成人午夜鲁丝一区二区三区 | 国产精品-区区久久久狼 | 一本色道久久综合亚洲精品不卡 | 一本加勒比波多野结衣 | www国产亚洲精品久久久日本 | 一本无码人妻在中文字幕免费 | 国产极品美女高潮无套在线观看 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲综合久久一区二区 | 无人区乱码一区二区三区 | 麻豆av传媒蜜桃天美传媒 | 精品一区二区不卡无码av | 国产超级va在线观看视频 | 国产真实伦对白全集 | 成人欧美一区二区三区黑人 | 中文精品无码中文字幕无码专区 | 久久亚洲日韩精品一区二区三区 | a片免费视频在线观看 | 蜜臀av无码人妻精品 | 在线精品国产一区二区三区 | 日本va欧美va欧美va精品 | 久久 国产 尿 小便 嘘嘘 | 日本熟妇人妻xxxxx人hd | 久久久久久久人妻无码中文字幕爆 | 精品人妻人人做人人爽夜夜爽 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲日本va午夜在线电影 | 精品无人区无码乱码毛片国产 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美丰满少妇xxxx性 | 日韩精品无码一区二区中文字幕 | 无码av免费一区二区三区试看 | 亚洲综合另类小说色区 | 中文字幕人妻无码一夲道 | 最近免费中文字幕中文高清百度 | 日本大乳高潮视频在线观看 | 啦啦啦www在线观看免费视频 | 日本熟妇浓毛 | 亚洲中文字幕乱码av波多ji | 精品亚洲韩国一区二区三区 | 好男人www社区 | 天堂亚洲免费视频 | 久久视频在线观看精品 | 成人性做爰aaa片免费看 | 国产精品国产自线拍免费软件 | 欧美xxxx黑人又粗又长 | 成人无码精品1区2区3区免费看 | 无码精品国产va在线观看dvd | 亚洲综合色区中文字幕 | 国产精品资源一区二区 | 夜夜高潮次次欢爽av女 | 荫蒂被男人添的好舒服爽免费视频 | 一本久久伊人热热精品中文字幕 | yw尤物av无码国产在线观看 | 亚洲aⅴ无码成人网站国产app | 色婷婷香蕉在线一区二区 | 亚拍精品一区二区三区探花 | 亚洲成在人网站无码天堂 | 成人aaa片一区国产精品 | 日韩无套无码精品 | 乱码av麻豆丝袜熟女系列 | 帮老师解开蕾丝奶罩吸乳网站 | 又大又硬又爽免费视频 | 2019午夜福利不卡片在线 | 激情内射亚州一区二区三区爱妻 | 亚洲日韩av一区二区三区四区 | 亚洲欧洲中文日韩av乱码 | 久久综合久久自在自线精品自 | 色综合久久久无码中文字幕 | 中文精品无码中文字幕无码专区 | 熟妇人妻激情偷爽文 | 性欧美牲交在线视频 | 性色av无码免费一区二区三区 | 无码一区二区三区在线观看 | 欧美午夜特黄aaaaaa片 | 国产九九九九九九九a片 | 玩弄少妇高潮ⅹxxxyw | 国产另类ts人妖一区二区 | 特黄特色大片免费播放器图片 | 久久久久久久女国产乱让韩 | 无码吃奶揉捏奶头高潮视频 | 久久久久久久女国产乱让韩 | 亚洲中文字幕在线观看 | 麻花豆传媒剧国产免费mv在线 | 永久黄网站色视频免费直播 | 两性色午夜视频免费播放 | 亚洲日本va中文字幕 | 正在播放东北夫妻内射 | 兔费看少妇性l交大片免费 | 荫蒂添的好舒服视频囗交 | 亚洲国产精品无码久久久久高潮 | 久久国内精品自在自线 | 日韩精品a片一区二区三区妖精 | 久久久久成人片免费观看蜜芽 | 暴力强奷在线播放无码 | 7777奇米四色成人眼影 | 天天躁夜夜躁狠狠是什么心态 | 国产精品内射视频免费 | 国产成人精品久久亚洲高清不卡 | 亚洲一区二区三区在线观看网站 | 捆绑白丝粉色jk震动捧喷白浆 | 久久伊人色av天堂九九小黄鸭 | 欧美性黑人极品hd | 国产精品内射视频免费 | 麻豆国产丝袜白领秘书在线观看 | 婷婷综合久久中文字幕蜜桃三电影 | 强辱丰满人妻hd中文字幕 | v一区无码内射国产 | 少妇无套内谢久久久久 | 国产一区二区三区日韩精品 | 久久午夜无码鲁丝片 | 国产suv精品一区二区五 | 国产精品人人爽人人做我的可爱 | 亚洲精品国产a久久久久久 | 成人欧美一区二区三区黑人 | 国产后入清纯学生妹 | 成人精品视频一区二区 | 久久国产精品偷任你爽任你 | 东京热男人av天堂 | 亚洲一区二区三区播放 | 2019午夜福利不卡片在线 | 3d动漫精品啪啪一区二区中 | 亚洲精品一区二区三区婷婷月 | 无遮挡国产高潮视频免费观看 | 亚洲欧美中文字幕5发布 | 国产熟女一区二区三区四区五区 | 特级做a爰片毛片免费69 | 国产人妖乱国产精品人妖 | 亚洲中文无码av永久不收费 | 人妻aⅴ无码一区二区三区 | 国产亚洲精品久久久久久久 | 国产激情综合五月久久 | 日韩精品久久久肉伦网站 | 欧美国产亚洲日韩在线二区 | 乱码av麻豆丝袜熟女系列 | 欧美精品一区二区精品久久 | 天天摸天天透天天添 | 亚洲欧美日韩国产精品一区二区 | 领导边摸边吃奶边做爽在线观看 | 国产精品.xx视频.xxtv | 日韩人妻少妇一区二区三区 | 我要看www免费看插插视频 | 亚洲人成网站色7799 | 十八禁真人啪啪免费网站 | 日韩av激情在线观看 | 亚洲综合无码久久精品综合 | 国产乡下妇女做爰 | 两性色午夜视频免费播放 | 麻豆蜜桃av蜜臀av色欲av | 国产精品久久国产三级国 | 亚洲中文字幕乱码av波多ji | 无码av岛国片在线播放 | 精品一区二区三区波多野结衣 | 国产舌乚八伦偷品w中 | 乱人伦人妻中文字幕无码 | 欧美日韩一区二区三区自拍 | 最新版天堂资源中文官网 | 国产熟妇另类久久久久 | 亚洲理论电影在线观看 | 欧美日韩在线亚洲综合国产人 | 无码任你躁久久久久久久 | 全黄性性激高免费视频 | 乱码午夜-极国产极内射 | 亚洲精品久久久久avwww潮水 | 色狠狠av一区二区三区 | 在线亚洲高清揄拍自拍一品区 | 东京热男人av天堂 | 亚洲a无码综合a国产av中文 | 国产高潮视频在线观看 | 人妻尝试又大又粗久久 | 狠狠色噜噜狠狠狠狠7777米奇 | 少妇被黑人到高潮喷出白浆 | 成年美女黄网站色大免费全看 | 免费看少妇作爱视频 | 欧美精品免费观看二区 | 成人无码视频在线观看网站 | 国产乱子伦视频在线播放 | 一本无码人妻在中文字幕免费 | 国产精品亚洲专区无码不卡 | 少妇无套内谢久久久久 | 99麻豆久久久国产精品免费 | 无套内谢老熟女 | 国产精品亚洲五月天高清 | 成人无码精品1区2区3区免费看 | 中文字幕无码日韩欧毛 | 久久精品国产日本波多野结衣 | 黄网在线观看免费网站 | 国产成人无码一二三区视频 | 欧洲精品码一区二区三区免费看 | 国产偷国产偷精品高清尤物 | 国产精品久久久久久久9999 | 亚欧洲精品在线视频免费观看 | 久久综合九色综合欧美狠狠 | 性生交大片免费看l | 亚洲成色www久久网站 | 亚洲无人区一区二区三区 | 在线成人www免费观看视频 | 亚洲午夜久久久影院 | 久久精品丝袜高跟鞋 | 丁香花在线影院观看在线播放 | 欧美高清在线精品一区 | ass日本丰满熟妇pics | 日韩欧美群交p片內射中文 | 日韩精品乱码av一区二区 | 亚洲国产精品美女久久久久 | 中文字幕av无码一区二区三区电影 | 欧美 丝袜 自拍 制服 另类 | 少妇无码一区二区二三区 | 色婷婷综合激情综在线播放 | 日韩成人一区二区三区在线观看 | 免费看男女做好爽好硬视频 | 精品国偷自产在线 | 国产av一区二区三区最新精品 | 人人妻人人藻人人爽欧美一区 | 乌克兰少妇xxxx做受 | 国产免费久久精品国产传媒 | 曰本女人与公拘交酡免费视频 | 熟妇人妻中文av无码 | 人妻有码中文字幕在线 | 久久综合色之久久综合 | 男女性色大片免费网站 | 国内精品久久久久久中文字幕 | 一本久道久久综合狠狠爱 | 性生交大片免费看女人按摩摩 | 好爽又高潮了毛片免费下载 | 国产亚洲tv在线观看 | 亚洲国产精品毛片av不卡在线 | 人人澡人摸人人添 | 精品无码成人片一区二区98 | 国产无套内射久久久国产 | 夜夜影院未满十八勿进 | 婷婷六月久久综合丁香 | 亚洲综合色区中文字幕 | 99久久婷婷国产综合精品青草免费 | 99麻豆久久久国产精品免费 | 成人女人看片免费视频放人 | 亚洲男人av天堂午夜在 | 奇米影视7777久久精品 | 97夜夜澡人人双人人人喊 | 精品乱子伦一区二区三区 | 色综合久久久无码中文字幕 | 国产乱人无码伦av在线a | 成人性做爰aaa片免费看 | 亚洲狠狠色丁香婷婷综合 | 久久久久久久女国产乱让韩 | 成人av无码一区二区三区 | 97久久超碰中文字幕 | 国产免费久久久久久无码 | 在线播放免费人成毛片乱码 | 国色天香社区在线视频 | 影音先锋中文字幕无码 | 又湿又紧又大又爽a视频国产 | 成人性做爰aaa片免费看不忠 | 少妇性俱乐部纵欲狂欢电影 | 97精品国产97久久久久久免费 | 亚洲一区二区三区无码久久 | 欧美性黑人极品hd | 一区二区三区高清视频一 | 亚洲s码欧洲m码国产av | 国产乱子伦视频在线播放 | 成人毛片一区二区 | 黑人大群体交免费视频 | 亚洲日韩中文字幕在线播放 | 亚洲 a v无 码免 费 成 人 a v | 激情综合激情五月俺也去 | 免费国产黄网站在线观看 | 久久人人爽人人爽人人片av高清 | 九九久久精品国产免费看小说 | 免费观看又污又黄的网站 | 风流少妇按摩来高潮 | 97se亚洲精品一区 | 国产精品久久久久久亚洲毛片 | 国产av无码专区亚洲awww | 婷婷综合久久中文字幕蜜桃三电影 | 色一情一乱一伦 | 亚洲一区二区三区香蕉 | 亚洲精品一区三区三区在线观看 | 久久五月精品中文字幕 | 性做久久久久久久久 | 欧美日韩色另类综合 | 少妇久久久久久人妻无码 | 激情爆乳一区二区三区 | 久久亚洲中文字幕精品一区 | 欧洲vodafone精品性 | 久久精品国产大片免费观看 | 色噜噜亚洲男人的天堂 | 国产一精品一av一免费 | 亚洲精品中文字幕乱码 | 精品一区二区不卡无码av | 欧美性生交活xxxxxdddd | 国产婷婷色一区二区三区在线 | 激情五月综合色婷婷一区二区 | 色欲久久久天天天综合网精品 | 人人妻在人人 | 亚洲一区二区观看播放 | 又大又紧又粉嫩18p少妇 | 日日干夜夜干 | 无码精品国产va在线观看dvd | 中文字幕无码av波多野吉衣 | 国产成人无码av片在线观看不卡 | 少妇的肉体aa片免费 | 日韩精品久久久肉伦网站 | 亚洲精品美女久久久久久久 | 青青久在线视频免费观看 | 国产午夜视频在线观看 | 99久久精品国产一区二区蜜芽 | 免费男性肉肉影院 | 国产精品理论片在线观看 | 九月婷婷人人澡人人添人人爽 | 成人无码影片精品久久久 | а√天堂www在线天堂小说 | 成熟妇人a片免费看网站 | 成年美女黄网站色大免费全看 | 久久97精品久久久久久久不卡 | 精品无人国产偷自产在线 | 国产综合久久久久鬼色 | 色一情一乱一伦一视频免费看 | 欧美人与动性行为视频 | 日韩精品久久久肉伦网站 | 日日摸天天摸爽爽狠狠97 | 日韩成人一区二区三区在线观看 | 亚洲成a人一区二区三区 | 欧美激情一区二区三区成人 | 人妻中文无码久热丝袜 | 在线播放亚洲第一字幕 | 国产黄在线观看免费观看不卡 | 高潮毛片无遮挡高清免费 | 97无码免费人妻超级碰碰夜夜 | 亚洲国产av精品一区二区蜜芽 | 国内揄拍国内精品人妻 | 亚洲熟妇色xxxxx亚洲 | a国产一区二区免费入口 | 夜夜高潮次次欢爽av女 | av人摸人人人澡人人超碰下载 | 狠狠色噜噜狠狠狠狠7777米奇 | 日韩av无码一区二区三区不卡 | 亚洲一区二区三区 | 强奷人妻日本中文字幕 | 色老头在线一区二区三区 | 天堂亚洲2017在线观看 | 久久99久久99精品中文字幕 | 国内精品人妻无码久久久影院蜜桃 | 国产乱子伦视频在线播放 | 亚洲va欧美va天堂v国产综合 | 中文字幕人妻无码一夲道 | 天天综合网天天综合色 | 粗大的内捧猛烈进出视频 | 精品aⅴ一区二区三区 | 亚洲综合无码一区二区三区 | www一区二区www免费 | 国产成人无码av在线影院 | 小鲜肉自慰网站xnxx | 少妇久久久久久人妻无码 | 精品乱码久久久久久久 | 久久精品人人做人人综合试看 | av在线亚洲欧洲日产一区二区 | 免费看少妇作爱视频 | 国产精品国产三级国产专播 | 粉嫩少妇内射浓精videos | 亚洲a无码综合a国产av中文 | 色综合视频一区二区三区 | 人人妻人人藻人人爽欧美一区 | 大地资源网第二页免费观看 | 欧美人与动性行为视频 | 婷婷丁香五月天综合东京热 | 亚洲国产午夜精品理论片 | 国产成人综合色在线观看网站 | 国产精品毛多多水多 | 久久人人爽人人人人片 | 国产精品高潮呻吟av久久4虎 | 国产97色在线 | 免 | 成人精品一区二区三区中文字幕 | 精品夜夜澡人妻无码av蜜桃 | 国产高潮视频在线观看 | 日日躁夜夜躁狠狠躁 | 亚洲码国产精品高潮在线 | 久久精品中文字幕大胸 | 四十如虎的丰满熟妇啪啪 | 日本一卡2卡3卡四卡精品网站 | 人人妻人人澡人人爽人人精品 | 荡女精品导航 | 两性色午夜免费视频 | 久久精品国产一区二区三区肥胖 | 午夜精品久久久久久久 | 国内揄拍国内精品人妻 | 丝袜 中出 制服 人妻 美腿 | 欧美亚洲日韩国产人成在线播放 | 亚洲 高清 成人 动漫 | 国产成人精品三级麻豆 | 国产精品怡红院永久免费 | 人人妻人人澡人人爽精品欧美 | 国产成人无码一二三区视频 | 国产又爽又猛又粗的视频a片 | 又粗又大又硬又长又爽 | 日韩 欧美 动漫 国产 制服 | 婷婷丁香六月激情综合啪 | 无码av最新清无码专区吞精 | 日本熟妇乱子伦xxxx | 丰满人妻一区二区三区免费视频 | 日本熟妇浓毛 | 亚洲无人区一区二区三区 | 国产精品久久福利网站 | 国产精华av午夜在线观看 | 久久久www成人免费毛片 | 狠狠色丁香久久婷婷综合五月 | 国产99久久精品一区二区 | 国产成人无码a区在线观看视频app | 欧美精品无码一区二区三区 | 国产另类ts人妖一区二区 | 国产亚av手机在线观看 | 天天做天天爱天天爽综合网 | 在线亚洲高清揄拍自拍一品区 | 国产精品igao视频网 | 精品久久久无码人妻字幂 | 夜夜高潮次次欢爽av女 | 又大又硬又爽免费视频 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲日韩一区二区三区 | 亚洲成av人综合在线观看 | 无码毛片视频一区二区本码 | 99麻豆久久久国产精品免费 | 最近免费中文字幕中文高清百度 | 国产suv精品一区二区五 | 国产成人亚洲综合无码 | 玩弄中年熟妇正在播放 | 无码毛片视频一区二区本码 | 国产高清av在线播放 | 兔费看少妇性l交大片免费 | 免费国产成人高清在线观看网站 | 最新版天堂资源中文官网 | 精品久久久久久亚洲精品 | 日本www一道久久久免费榴莲 | 内射巨臀欧美在线视频 | 国产精品丝袜黑色高跟鞋 | 欧美国产亚洲日韩在线二区 | 高清不卡一区二区三区 | 丰满少妇高潮惨叫视频 | 国产熟妇另类久久久久 | 欧美日韩视频无码一区二区三 | 国产精品视频免费播放 | 天天爽夜夜爽夜夜爽 | 正在播放老肥熟妇露脸 | 中文字幕日韩精品一区二区三区 | 曰本女人与公拘交酡免费视频 | 欧美自拍另类欧美综合图片区 | 99久久久无码国产精品免费 | 久久精品无码一区二区三区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 少妇邻居内射在线 | 欧美老妇交乱视频在线观看 | 天天躁日日躁狠狠躁免费麻豆 | 日韩在线不卡免费视频一区 | 国产尤物精品视频 | 日日摸日日碰夜夜爽av | 麻豆国产丝袜白领秘书在线观看 | 午夜福利电影 | 黑人大群体交免费视频 | 无码国产色欲xxxxx视频 | 国产又粗又硬又大爽黄老大爷视 | 东北女人啪啪对白 | 性生交片免费无码看人 | 99在线 | 亚洲 | 国产精品永久免费视频 | 亚洲码国产精品高潮在线 | 亚洲日本一区二区三区在线 | 高潮喷水的毛片 | 中文字幕久久久久人妻 | 国产莉萝无码av在线播放 | 小泽玛莉亚一区二区视频在线 | 国产一区二区三区影院 | 少妇人妻大乳在线视频 | 国精品人妻无码一区二区三区蜜柚 | 久久熟妇人妻午夜寂寞影院 | 牲欲强的熟妇农村老妇女 | 国产激情无码一区二区app | 亚洲乱码中文字幕在线 | 美女扒开屁股让男人桶 | 亚洲综合另类小说色区 | 国产精品内射视频免费 | 两性色午夜免费视频 | 国产亚洲精品久久久久久国模美 | 在线看片无码永久免费视频 | 国产成人无码专区 | 国产亚洲美女精品久久久2020 | 亚洲精品国偷拍自产在线观看蜜桃 | 美女极度色诱视频国产 | 国产成人无码午夜视频在线观看 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 成人aaa片一区国产精品 | 日韩少妇内射免费播放 | 性生交大片免费看l | 台湾无码一区二区 | 久久久久成人片免费观看蜜芽 | 欧美黑人乱大交 | 欧美人与禽猛交狂配 | 国产成人精品三级麻豆 | 国产97人人超碰caoprom | 成人欧美一区二区三区黑人免费 | 在线亚洲高清揄拍自拍一品区 | 国产精品嫩草久久久久 | 麻豆成人精品国产免费 | 欧美放荡的少妇 | 成人欧美一区二区三区 | 国产精品福利视频导航 | 天堂在线观看www | 国产成人无码av在线影院 | 久在线观看福利视频 | 午夜无码区在线观看 | 亚洲精品中文字幕乱码 | 欧美一区二区三区视频在线观看 | 久久人人97超碰a片精品 | а√天堂www在线天堂小说 | 久久久久se色偷偷亚洲精品av | 2019午夜福利不卡片在线 | 久久精品国产大片免费观看 | 欧美xxxx黑人又粗又长 | 狠狠cao日日穞夜夜穞av | 欧美精品无码一区二区三区 | 亚洲国产精品美女久久久久 | 亚洲精品无码国产 | 国产精品久久久午夜夜伦鲁鲁 | 人人妻人人澡人人爽欧美一区九九 | 天天拍夜夜添久久精品大 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久99精品国产麻豆 | 日本又色又爽又黄的a片18禁 | 亚洲成a人片在线观看无码 | 免费国产成人高清在线观看网站 | 熟妇人妻中文av无码 | 99视频精品全部免费免费观看 | 成人av无码一区二区三区 | 国产高清不卡无码视频 | 国产亚洲tv在线观看 | 国产成人无码专区 | 国产亚洲精品久久久久久久 | 人妻无码αv中文字幕久久琪琪布 | 国产97在线 | 亚洲 | 国产色xx群视频射精 | 国产成人精品一区二区在线小狼 | 国产极品美女高潮无套在线观看 | 东京无码熟妇人妻av在线网址 | 国产精品资源一区二区 | 国产极品美女高潮无套在线观看 | 日韩无码专区 | 国产午夜无码精品免费看 | а√资源新版在线天堂 | 亚洲 高清 成人 动漫 | 日韩精品无码免费一区二区三区 | 欧美猛少妇色xxxxx | 高清无码午夜福利视频 | 亚洲 激情 小说 另类 欧美 | 亚洲欧美日韩国产精品一区二区 | 最新国产麻豆aⅴ精品无码 | 欧美亚洲日韩国产人成在线播放 | 日本免费一区二区三区最新 | 国产人妻精品一区二区三区不卡 | 亚洲国产精品一区二区美利坚 | 一本久道久久综合狠狠爱 | 在线精品亚洲一区二区 | 亚洲自偷自偷在线制服 | 欧洲极品少妇 | 免费无码一区二区三区蜜桃大 | 亚洲日韩av片在线观看 | 少女韩国电视剧在线观看完整 | 亚洲国产精品一区二区第一页 | 国产熟女一区二区三区四区五区 | 欧美性猛交xxxx富婆 | 亚洲国产精品毛片av不卡在线 | 真人与拘做受免费视频一 | 亚洲国产av美女网站 | 国产精品美女久久久网av | 免费男性肉肉影院 | 亚洲午夜福利在线观看 | 国产手机在线αⅴ片无码观看 | 少妇厨房愉情理9仑片视频 | 国产精品99久久精品爆乳 | 狂野欧美性猛交免费视频 | 牲交欧美兽交欧美 | 久久久久久九九精品久 | 最近中文2019字幕第二页 | 精品人妻av区 | 久久午夜无码鲁丝片午夜精品 | 国产美女极度色诱视频www | 亚洲国产精品美女久久久久 | 成人aaa片一区国产精品 | 好屌草这里只有精品 | 老熟女重囗味hdxx69 | 国内揄拍国内精品少妇国语 | 国产无遮挡又黄又爽又色 | 国产又爽又黄又刺激的视频 | 老司机亚洲精品影院 | 日韩精品无码免费一区二区三区 | 纯爱无遮挡h肉动漫在线播放 | 高潮毛片无遮挡高清免费 | 啦啦啦www在线观看免费视频 | 色婷婷久久一区二区三区麻豆 | 亚洲欧美国产精品专区久久 | 图片小说视频一区二区 | 香港三级日本三级妇三级 | 国内综合精品午夜久久资源 | 日日天干夜夜狠狠爱 | 一区二区三区高清视频一 | 日韩无套无码精品 | 久久97精品久久久久久久不卡 | 亚洲va中文字幕无码久久不卡 | 亲嘴扒胸摸屁股激烈网站 | 国内精品人妻无码久久久影院蜜桃 | 日日天日日夜日日摸 | аⅴ资源天堂资源库在线 | 久久精品女人天堂av免费观看 | 国产人妻精品一区二区三区 | 99精品无人区乱码1区2区3区 | 国产精品理论片在线观看 | 99久久婷婷国产综合精品青草免费 | 精品无码国产一区二区三区av | 白嫩日本少妇做爰 | 最近免费中文字幕中文高清百度 | 久久国产精品二国产精品 | 无码人妻精品一区二区三区不卡 | 国产精品无码一区二区三区不卡 | 中文字幕无码免费久久9一区9 | 天堂无码人妻精品一区二区三区 | 日韩欧美中文字幕在线三区 | 性生交片免费无码看人 | 日韩精品一区二区av在线 | 国产亚av手机在线观看 | 久久精品国产一区二区三区肥胖 | 樱花草在线播放免费中文 | 国产亚洲欧美在线专区 | 国产香蕉97碰碰久久人人 | 精品成人av一区二区三区 | 自拍偷自拍亚洲精品10p | 国产成人精品久久亚洲高清不卡 | 日本精品高清一区二区 | 最新版天堂资源中文官网 | 亚洲色欲色欲天天天www | 无码av最新清无码专区吞精 | 免费男性肉肉影院 | 色噜噜亚洲男人的天堂 | 人妻天天爽夜夜爽一区二区 | 亚洲乱亚洲乱妇50p | 欧美大屁股xxxxhd黑色 | 久久99精品国产.久久久久 | 久久精品中文字幕大胸 | 国产成人精品三级麻豆 | 4hu四虎永久在线观看 | 好屌草这里只有精品 | 精品一区二区三区无码免费视频 | 久久zyz资源站无码中文动漫 | 国产一精品一av一免费 | 国产精品久久国产三级国 | 日本精品少妇一区二区三区 | 无码一区二区三区在线 | 国产精品无码一区二区桃花视频 | 中文无码成人免费视频在线观看 | 熟妇人妻无乱码中文字幕 | 55夜色66夜色国产精品视频 | 欧美人与物videos另类 | 亚洲精品午夜国产va久久成人 | 亚洲а∨天堂久久精品2021 | 午夜成人1000部免费视频 | 亚洲精品国产品国语在线观看 | 男女下面进入的视频免费午夜 | 成人欧美一区二区三区 | 九九综合va免费看 | 性色av无码免费一区二区三区 | 国产激情一区二区三区 | 久久亚洲精品中文字幕无男同 | 国产一区二区三区精品视频 | 67194成是人免费无码 | 国产精品无套呻吟在线 | 美女扒开屁股让男人桶 | 亚洲中文字幕av在天堂 | 欧美黑人巨大xxxxx | а√资源新版在线天堂 | 兔费看少妇性l交大片免费 | 超碰97人人做人人爱少妇 | 国产人成高清在线视频99最全资源 | 疯狂三人交性欧美 | 少妇被粗大的猛进出69影院 | 人妻中文无码久热丝袜 | 国产精品毛片一区二区 | 天海翼激烈高潮到腰振不止 | 99久久久无码国产精品免费 | 欧美真人作爱免费视频 | 国产精品二区一区二区aⅴ污介绍 | 亚洲成熟女人毛毛耸耸多 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久无码专区国产精品s | 99久久亚洲精品无码毛片 | 国产精品丝袜黑色高跟鞋 | 午夜性刺激在线视频免费 | 欧美丰满熟妇xxxx性ppx人交 | 乌克兰少妇xxxx做受 | 亚欧洲精品在线视频免费观看 | 欧美性猛交内射兽交老熟妇 | 精品乱子伦一区二区三区 | 永久黄网站色视频免费直播 | 成人精品视频一区二区 | 大肉大捧一进一出好爽视频 | 亚洲中文字幕av在天堂 | 婷婷五月综合缴情在线视频 | 一本久久a久久精品vr综合 | 久久国产精品偷任你爽任你 | 国产综合久久久久鬼色 | 欧美放荡的少妇 | 3d动漫精品啪啪一区二区中 | 日日鲁鲁鲁夜夜爽爽狠狠 | 天堂久久天堂av色综合 | 久久精品国产亚洲精品 | 性欧美疯狂xxxxbbbb | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲综合另类小说色区 | 国产黄在线观看免费观看不卡 | 国产成人无码专区 | 久9re热视频这里只有精品 | 中文字幕 亚洲精品 第1页 | 亚洲自偷自拍另类第1页 | 午夜熟女插插xx免费视频 | 午夜熟女插插xx免费视频 | 奇米影视7777久久精品 | 欧美老妇与禽交 | a片在线免费观看 | 乱人伦中文视频在线观看 | 2020最新国产自产精品 | 欧美精品免费观看二区 | 中文字幕无码乱人伦 | 国内少妇偷人精品视频免费 | 色综合久久久久综合一本到桃花网 | 中文字幕色婷婷在线视频 | 国产午夜福利亚洲第一 | 欧美猛少妇色xxxxx | 熟女体下毛毛黑森林 | а√资源新版在线天堂 | 国产成人av免费观看 | 欧美人与禽猛交狂配 | 丰满人妻翻云覆雨呻吟视频 | 亚洲国产精华液网站w | 日韩在线不卡免费视频一区 | 精品久久久久久人妻无码中文字幕 | 极品嫩模高潮叫床 | 成人欧美一区二区三区黑人 | 老熟妇仑乱视频一区二区 | 中文字幕无码乱人伦 | 成人欧美一区二区三区 | 红桃av一区二区三区在线无码av | 搡女人真爽免费视频大全 | 成人无码视频在线观看网站 | 久久精品丝袜高跟鞋 | 日韩 欧美 动漫 国产 制服 | 日韩精品无码免费一区二区三区 | 久久亚洲国产成人精品性色 | 亚洲春色在线视频 | 国产无套内射久久久国产 | 亚洲日韩精品欧美一区二区 | 天天摸天天透天天添 | 成人无码精品1区2区3区免费看 | 欧美激情内射喷水高潮 | 亚洲s码欧洲m码国产av | 亚洲码国产精品高潮在线 | 无码毛片视频一区二区本码 | 日日橹狠狠爱欧美视频 | 一本久道久久综合婷婷五月 | 国产精华av午夜在线观看 | 亚洲中文字幕在线无码一区二区 | 高清无码午夜福利视频 | 激情国产av做激情国产爱 | 思思久久99热只有频精品66 | a片在线免费观看 | 老司机亚洲精品影院 | 丰满人妻一区二区三区免费视频 | 成人欧美一区二区三区黑人免费 | 亚洲国产精品美女久久久久 | 国产美女极度色诱视频www | 国产97人人超碰caoprom | 亚洲精品一区二区三区四区五区 | 日韩精品乱码av一区二区 | 少妇性俱乐部纵欲狂欢电影 | 亚洲a无码综合a国产av中文 | 美女极度色诱视频国产 | 久久综合给合久久狠狠狠97色 | 国产精品久久久久7777 | 精品夜夜澡人妻无码av蜜桃 | 人人妻人人藻人人爽欧美一区 | 欧美精品一区二区精品久久 | 日韩欧美成人免费观看 | 亚洲成av人在线观看网址 | 国产亚洲精品久久久久久久久动漫 | 亚洲の无码国产の无码影院 | 免费国产黄网站在线观看 | 麻豆成人精品国产免费 | 99久久久无码国产aaa精品 | 强开小婷嫩苞又嫩又紧视频 | 精品国产av色一区二区深夜久久 | 天天爽夜夜爽夜夜爽 | 88国产精品欧美一区二区三区 | 亚洲国产精品久久久久久 | 国产香蕉97碰碰久久人人 | 欧洲美熟女乱又伦 |