3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

deep learning 作業 2.2

發布時間:2025/4/16 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 deep learning 作業 2.2 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

為什么80%的碼農都做不了架構師?>>> ??

Optimization Methods

Until now, you've always used Gradient Descent to update the parameters and minimize the cost. In this notebook, you will learn more advanced optimization methods that can speed up learning and perhaps even get you to a better final value for the cost function. Having a good optimization algorithm can be the difference between waiting days vs. just a few hours to get a good result.

Gradient descent goes "downhill" on a cost function?JJ. Think of it as trying to do this:

**Figure 1**?: **Minimizing the cost is like finding the lowest point in a hilly landscape**
At each step of the training, you update your parameters following a certain direction to try to get to the lowest possible point.

Notations: As usual,??J?a=?J?a=?da?for any variable?a.

To get started, run the following code to import the libraries you will need.

In?[1]:

import numpy as np import matplotlib.pyplot as plt import scipy.io import math import sklearn import sklearn.datasetsfrom opt_utils import load_params_and_grads, initialize_parameters, forward_propagation, backward_propagation from opt_utils import compute_cost, predict, predict_dec, plot_decision_boundary, load_dataset from testCases import *%matplotlib inline plt.rcParams['figure.figsize'] = (7.0, 4.0) # set default size of plots plt.rcParams['image.interpolation'] = 'nearest' plt.rcParams['image.cmap'] = 'gray'

1 - Gradient Descent

A simple optimization method in machine learning is gradient descent (GD). When you take gradient steps with respect to all?mm?examples on each step, it is also called Batch Gradient Descent.

Warm-up exercise: Implement the gradient descent update rule. The gradient descent rule is, for?l=1,...,Ll=1,...,L:

W[l]=W[l]?α?dW[l](1)(1)W[l]=W[l]?α?dW[l]

b[l]=b[l]?α?db[l](2)(2)b[l]=b[l]?α?db[l]

where L is the number of layers and?αα?is the learning rate. All parameters should be stored in the?parameters?dictionary. Note that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]. You need to shift?l?to?l+1?when coding.

In?[2]:

# GRADED FUNCTION: update_parameters_with_gddef update_parameters_with_gd(parameters, grads, learning_rate):"""Update parameters using one step of gradient descentArguments:parameters -- python dictionary containing your parameters to be updated:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients to update each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dbllearning_rate -- the learning rate, scalar.Returns:parameters -- python dictionary containing your updated parameters """L = len(parameters) // 2 # number of layers in the neural networks# Update rule for each parameterfor l in range(L):### START CODE HERE ### (approx. 2 lines)parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * grads['dW' + str(l+1)]parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * grads['db' + str(l+1)]### END CODE HERE ###return parameters

In?[3]:

parameters, grads, learning_rate = update_parameters_with_gd_test_case()parameters = update_parameters_with_gd(parameters, grads, learning_rate) print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) W1 = [[ 1.63535156 -0.62320365 -0.53718766][-1.07799357 0.85639907 -2.29470142]] b1 = [[ 1.74604067][-0.75184921]] W2 = [[ 0.32171798 -0.25467393 1.46902454][-2.05617317 -0.31554548 -0.3756023 ][ 1.1404819 -1.09976462 -0.1612551 ]] b2 = [[-0.88020257][ 0.02561572][ 0.57539477]]

Expected Output:

**W1**[[ 1.63535156 -0.62320365 -0.53718766] [-1.07799357 0.85639907 -2.29470142]]
**b1**[[ 1.74604067] [-0.75184921]]
**W2**[[ 0.32171798 -0.25467393 1.46902454] [-2.05617317 -0.31554548 -0.3756023 ] [ 1.1404819 -1.09976462 -0.1612551 ]]
**b2**[[-0.88020257] [ 0.02561572] [ 0.57539477]]

A variant of this is Stochastic Gradient Descent (SGD), which is equivalent to mini-batch gradient descent where each mini-batch has just 1 example. The update rule that you have just implemented does not change. What changes is that you would be computing gradients on just one training example at a time, rather than on the whole training set. The code examples below illustrate the difference between stochastic gradient descent and (batch) gradient descent.

  • (Batch) Gradient Descent:
X = data_input Y = labels parameters = initialize_parameters(layers_dims) for i in range(0, num_iterations):# Forward propagationa, caches = forward_propagation(X, parameters)# Compute cost.cost = compute_cost(a, Y)# Backward propagation.grads = backward_propagation(a, caches, parameters)# Update parameters.parameters = update_parameters(parameters, grads)
  • Stochastic Gradient Descent:
X = data_input Y = labels parameters = initialize_parameters(layers_dims) for i in range(0, num_iterations):for j in range(0, m):# Forward propagationa, caches = forward_propagation(X[:,j], parameters)# Compute costcost = compute_cost(a, Y[:,j])# Backward propagationgrads = backward_propagation(a, caches, parameters)# Update parameters.parameters = update_parameters(parameters, grads)

In Stochastic Gradient Descent, you use only 1 training example before updating the gradients. When the training set is large, SGD can be faster. But the parameters will "oscillate" toward the minimum rather than converge smoothly. Here is an illustration of this:

**Figure 1**?: **SGD vs GD**
"+" denotes a minimum of the cost. SGD leads to many oscillations to reach convergence. But each step is a lot faster to compute for SGD than for GD, as it uses only one training example (vs. the whole batch for GD).

Note?also that implementing SGD requires 3 for-loops in total:

  • Over the number of iterations
  • Over the?mm?training examples
  • Over the layers (to update all parameters, from?(W[1],b[1])(W[1],b[1])?to?(W[L],b[L])(W[L],b[L]))
  • In practice, you'll often get faster results if you do not use neither the whole training set, nor only one training example, to perform each update. Mini-batch gradient descent uses an intermediate number of examples for each step. With mini-batch gradient descent, you loop over the mini-batches instead of looping over individual training examples.

    **Figure 2**?:?**SGD vs Mini-Batch GD**
    "+" denotes a minimum of the cost. Using mini-batches in your optimization algorithm often leads to faster optimization.

    What you should remember:

    • The difference between gradient descent, mini-batch gradient descent and stochastic gradient descent is the number of examples you use to perform one update step.
    • You have to tune a learning rate hyperparameter?αα.
    • With a well-turned mini-batch size, usually it outperforms either gradient descent or stochastic gradient descent (particularly when the training set is large).

    2 - Mini-Batch Gradient descent

    Let's learn how to build mini-batches from the training set (X, Y).

    There are two steps:

    • Shuffle: Create a shuffled version of the training set (X, Y) as shown below. Each column of X and Y represents a training example. Note that the random shuffling is done synchronously between X and Y. Such that after the shuffling the?ithith?column of X is the example corresponding to the?ithithlabel in Y. The shuffling step ensures that examples will be split randomly into different mini-batches.

    • Partition: Partition the shuffled (X, Y) into mini-batches of size?mini_batch_size?(here 64). Note that the number of training examples is not always divisible by?mini_batch_size. The last mini batch might be smaller, but you don't need to worry about this. When the final mini-batch is smaller than the full?mini_batch_size, it will look like this:

    Exercise: Implement?random_mini_batches. We coded the shuffling part for you. To help you with the partitioning step, we give you the following code that selects the indexes for the?1st1st?and?2nd2nd?mini-batches:

    first_mini_batch_X = shuffled_X[:, 0 : mini_batch_size] second_mini_batch_X = shuffled_X[:, mini_batch_size : 2 * mini_batch_size] ...

    Note that the last mini-batch might end up smaller than?mini_batch_size=64. Let??s??s??represents?ss?rounded down to the nearest integer (this is?math.floor(s)?in Python). If the total number of examples is not a multiple of?mini_batch_size=64?then there will be??mmini_batch_size??mmini_batch_size??mini-batches with a full 64 examples, and the number of examples in the final mini-batch will be (m?mini_batch_size×?mmini_batch_size?m?mini_batch_size×?mmini_batch_size?).

    In?[4]:

    # GRADED FUNCTION: random_mini_batchesdef random_mini_batches(X, Y, mini_batch_size = 64, seed = 0):"""Creates a list of random minibatches from (X, Y)Arguments:X -- input data, of shape (input size, number of examples)Y -- true "label" vector (1 for blue dot / 0 for red dot), of shape (1, number of examples)mini_batch_size -- size of the mini-batches, integerReturns:mini_batches -- list of synchronous (mini_batch_X, mini_batch_Y)"""np.random.seed(seed) # To make your "random" minibatches the same as oursm = X.shape[1] # number of training examplesmini_batches = []# Step 1: Shuffle (X, Y)permutation = list(np.random.permutation(m))shuffled_X = X[:, permutation]shuffled_Y = Y[:, permutation].reshape((1,m))# Step 2: Partition (shuffled_X, shuffled_Y). Minus the end case.num_complete_minibatches = math.floor(m/mini_batch_size) # number of mini batches of size mini_batch_size in your partitionningfor k in range(0, num_complete_minibatches):### START CODE HERE ### (approx. 2 lines)mini_batch_X = shuffled_X[:, k*mini_batch_size : (k+1) * mini_batch_size]mini_batch_Y = shuffled_Y[:, k*mini_batch_size : (k+1) * mini_batch_size]### END CODE HERE ###mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)# Handling the end case (last mini-batch < mini_batch_size)if m % mini_batch_size != 0:### START CODE HERE ### (approx. 2 lines)mini_batch_X = shuffled_X[:, num_complete_minibatches*mini_batch_size:]mini_batch_Y = shuffled_Y[:, num_complete_minibatches*mini_batch_size:]### END CODE HERE ###mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)return mini_batches

    In?[5]:

    X_assess, Y_assess, mini_batch_size = random_mini_batches_test_case() mini_batches = random_mini_batches(X_assess, Y_assess, mini_batch_size)print ("shape of the 1st mini_batch_X: " + str(mini_batches[0][0].shape)) print ("shape of the 2nd mini_batch_X: " + str(mini_batches[1][0].shape)) print ("shape of the 3rd mini_batch_X: " + str(mini_batches[2][0].shape)) print ("shape of the 1st mini_batch_Y: " + str(mini_batches[0][1].shape)) print ("shape of the 2nd mini_batch_Y: " + str(mini_batches[1][1].shape)) print ("shape of the 3rd mini_batch_Y: " + str(mini_batches[2][1].shape)) print ("mini batch sanity check: " + str(mini_batches[0][0][0][0:3])) shape of the 1st mini_batch_X: (12288, 64) shape of the 2nd mini_batch_X: (12288, 64) shape of the 3rd mini_batch_X: (12288, 20) shape of the 1st mini_batch_Y: (1, 64) shape of the 2nd mini_batch_Y: (1, 64) shape of the 3rd mini_batch_Y: (1, 20) mini batch sanity check: [ 0.90085595 -0.7612069 0.2344157 ]

    Expected Output:

    **shape of the 1st mini_batch_X**(12288, 64)
    **shape of the 2nd mini_batch_X**(12288, 64)
    **shape of the 3rd mini_batch_X**(12288, 20)
    **shape of the 1st mini_batch_Y**(1, 64)
    **shape of the 2nd mini_batch_Y**(1, 64)
    **shape of the 3rd mini_batch_Y**(1, 20)
    **mini batch sanity check**[ 0.90085595 -0.7612069 0.2344157 ]

    What you should remember:

    • Shuffling and Partitioning are the two steps required to build mini-batches
    • Powers of two are often chosen to be the mini-batch size, e.g., 16, 32, 64, 128.

    3 - Momentum

    Because mini-batch gradient descent makes a parameter update after seeing just a subset of examples, the direction of the update has some variance, and so the path taken by mini-batch gradient descent will "oscillate" toward convergence. Using momentum can reduce these oscillations.

    Momentum takes into account the past gradients to smooth out the update. We will store the 'direction' of the previous gradients in the variable?vv. Formally, this will be the exponentially weighted average of the gradient on previous steps. You can also think of?vv?as the "velocity" of a ball rolling downhill, building up speed (and momentum) according to the direction of the gradient/slope of the hill.

    ?

    **Figure 3**: The red arrows shows the direction taken by one step of mini-batch gradient descent with momentum. The blue points show the direction of the gradient (with respect to the current mini-batch) on each step. Rather than just following the gradient, we let the gradient influence?vv?and then take a step in the direction of?vv.

    ?

    Exercise: Initialize the velocity. The velocity,?vv, is a python dictionary that needs to be initialized with arrays of zeros. Its keys are the same as those in the?grads?dictionary, that is: for?l=1,...,Ll=1,...,L:

    v["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) v["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)])

    Note?that the iterator l starts at 0 in the for loop while the first parameters are v["dW1"] and v["db1"] (that's a "one" on the superscript). This is why we are shifting l to l+1 in the?for?loop.

    In?[6]:

    # GRADED FUNCTION: initialize_velocitydef initialize_velocity(parameters):"""Initializes the velocity as a python dictionary with:- keys: "dW1", "db1", ..., "dWL", "dbL" - values: numpy arrays of zeros of the same shape as the corresponding gradients/parameters.Arguments:parameters -- python dictionary containing your parameters.parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blReturns:v -- python dictionary containing the current velocity.v['dW' + str(l)] = velocity of dWlv['db' + str(l)] = velocity of dbl"""L = len(parameters) // 2 # number of layers in the neural networksv = {}# Initialize velocityfor l in range(L):### START CODE HERE ### (approx. 2 lines)v["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))v["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))### END CODE HERE ###return v

    In?[7]:

    parameters = initialize_velocity_test_case()v = initialize_velocity(parameters) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) v["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] v["db1"] = [[ 0.][ 0.]] v["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] v["db2"] = [[ 0.][ 0.][ 0.]]

    Expected Output:

    **v["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db1"]**[[ 0.] [ 0.]]
    **v["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db2"]**[[ 0.] [ 0.] [ 0.]]

    Exercise: Now, implement the parameters update with momentum. The momentum update rule is, for?l=1,...,Ll=1,...,L:

    {vdW[l]=βvdW[l]+(1?β)dW[l]W[l]=W[l]?αvdW[l](3)(3){vdW[l]=βvdW[l]+(1?β)dW[l]W[l]=W[l]?αvdW[l]

    {vdb[l]=βvdb[l]+(1?β)db[l]b[l]=b[l]?αvdb[l](4)(4){vdb[l]=βvdb[l]+(1?β)db[l]b[l]=b[l]?αvdb[l]

    where L is the number of layers,?ββ?is the momentum and?αα?is the learning rate. All parameters should be stored in the?parameters?dictionary. Note that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]?(that's a "one" on the superscript). So you will need to shift?l?to?l+1?when coding.

    In?[8]:

    # GRADED FUNCTION: update_parameters_with_momentumdef update_parameters_with_momentum(parameters, grads, v, beta, learning_rate):"""Update parameters using MomentumArguments:parameters -- python dictionary containing your parameters:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients for each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dblv -- python dictionary containing the current velocity:v['dW' + str(l)] = ...v['db' + str(l)] = ...beta -- the momentum hyperparameter, scalarlearning_rate -- the learning rate, scalarReturns:parameters -- python dictionary containing your updated parameters v -- python dictionary containing your updated velocities"""L = len(parameters) // 2 # number of layers in the neural networks# Momentum update for each parameterfor l in range(L):### START CODE HERE ### (approx. 4 lines)# compute velocitiesv["dW" + str(l+1)] = beta*v["dW" + str(l+1)] + (1-beta)*grads['dW' + str(l+1)]v["db" + str(l+1)] = beta*v["db" + str(l+1)] + (1-beta)*grads['db' + str(l+1)]# update parametersparameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * v["dW" + str(l+1)]parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * v["db" + str(l+1)]### END CODE HERE ###return parameters, v

    In?[9]:

    parameters, grads, v = update_parameters_with_momentum_test_case()parameters, v = update_parameters_with_momentum(parameters, grads, v, beta = 0.9, learning_rate = 0.01) print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) W1 = [[ 1.62544598 -0.61290114 -0.52907334][-1.07347112 0.86450677 -2.30085497]] b1 = [[ 1.74493465][-0.76027113]] W2 = [[ 0.31930698 -0.24990073 1.4627996 ][-2.05974396 -0.32173003 -0.38320915][ 1.13444069 -1.0998786 -0.1713109 ]] b2 = [[-0.87809283][ 0.04055394][ 0.58207317]] v["dW1"] = [[-0.11006192 0.11447237 0.09015907][ 0.05024943 0.09008559 -0.06837279]] v["db1"] = [[-0.01228902][-0.09357694]] v["dW2"] = [[-0.02678881 0.05303555 -0.06916608][-0.03967535 -0.06871727 -0.08452056][-0.06712461 -0.00126646 -0.11173103]] v["db2"] = [[ 0.02344157][ 0.16598022][ 0.07420442]]

    Expected Output:

    **W1**[[ 1.62544598 -0.61290114 -0.52907334] [-1.07347112 0.86450677 -2.30085497]]
    **b1**[[ 1.74493465] [-0.76027113]]
    **W2**[[ 0.31930698 -0.24990073 1.4627996 ] [-2.05974396 -0.32173003 -0.38320915] [ 1.13444069 -1.0998786 -0.1713109 ]]
    **b2**[[-0.87809283] [ 0.04055394] [ 0.58207317]]
    **v["dW1"]**[[-0.11006192 0.11447237 0.09015907] [ 0.05024943 0.09008559 -0.06837279]]
    **v["db1"]**[[-0.01228902] [-0.09357694]]
    **v["dW2"]**[[-0.02678881 0.05303555 -0.06916608] [-0.03967535 -0.06871727 -0.08452056] [-0.06712461 -0.00126646 -0.11173103]]
    **v["db2"]**[[ 0.02344157] [ 0.16598022] [ 0.07420442]]

    Note?that:

    • The velocity is initialized with zeros. So the algorithm will take a few iterations to "build up" velocity and start to take bigger steps.
    • If?β=0β=0, then this just becomes standard gradient descent without momentum.

    How do you choose?ββ?

    • The larger the momentum?ββ?is, the smoother the update because the more we take the past gradients into account. But if?ββ?is too big, it could also smooth out the updates too much.
    • Common values for?ββ?range from 0.8 to 0.999. If you don't feel inclined to tune this,?β=0.9β=0.9?is often a reasonable default.
    • Tuning the optimal?ββ?for your model might need trying several values to see what works best in term of reducing the value of the cost function?JJ.

    What you should remember:

    • Momentum takes past gradients into account to smooth out the steps of gradient descent. It can be applied with batch gradient descent, mini-batch gradient descent or stochastic gradient descent.
    • You have to tune a momentum hyperparameter?ββ?and a learning rate?αα.

    4 - Adam

    Adam is one of the most effective optimization algorithms for training neural networks. It combines ideas from RMSProp (described in lecture) and Momentum.

    How does Adam work?

  • It calculates an exponentially weighted average of past gradients, and stores it in variables?vv?(before bias correction) and?vcorrectedvcorrected?(with bias correction).
  • It calculates an exponentially weighted average of the squares of the past gradients, and stores it in variables?ss?(before bias correction) and?scorrectedscorrected(with bias correction).
  • It updates parameters in a direction based on combining information from "1" and "2".
  • The update rule is, for?l=1,...,Ll=1,...,L:

    ?????????????????????????????vdW[l]=β1vdW[l]+(1?β1)?J?W[l]vcorrecteddW[l]=vdW[l]1?(β1)tsdW[l]=β2sdW[l]+(1?β2)(?J?W[l])2scorrecteddW[l]=sdW[l]1?(β1)tW[l]=W[l]?αvcorrecteddW[l]scorrecteddW[l]√+ε{vdW[l]=β1vdW[l]+(1?β1)?J?W[l]vdW[l]corrected=vdW[l]1?(β1)tsdW[l]=β2sdW[l]+(1?β2)(?J?W[l])2sdW[l]corrected=sdW[l]1?(β1)tW[l]=W[l]?αvdW[l]correctedsdW[l]corrected+ε

    where:

    • t counts the number of steps taken of Adam
    • L is the number of layers
    • β1β1?and?β2β2?are hyperparameters that control the two exponentially weighted averages.
    • αα?is the learning rate
    • εε?is a very small number to avoid dividing by zero

    As usual, we will store all parameters in the?parameters?dictionary

    Exercise: Initialize the Adam variables?v,sv,s?which keep track of the past information.

    Instruction: The variables?v,sv,s?are python dictionaries that need to be initialized with arrays of zeros. Their keys are the same as for?grads, that is: for?l=1,...,Ll=1,...,L:

    v["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) v["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)]) s["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) s["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)])

    In?[10]:

    # GRADED FUNCTION: initialize_adamdef initialize_adam(parameters) :"""Initializes v and s as two python dictionaries with:- keys: "dW1", "db1", ..., "dWL", "dbL" - values: numpy arrays of zeros of the same shape as the corresponding gradients/parameters.Arguments:parameters -- python dictionary containing your parameters.parameters["W" + str(l)] = Wlparameters["b" + str(l)] = blReturns: v -- python dictionary that will contain the exponentially weighted average of the gradient.v["dW" + str(l)] = ...v["db" + str(l)] = ...s -- python dictionary that will contain the exponentially weighted average of the squared gradient.s["dW" + str(l)] = ...s["db" + str(l)] = ..."""L = len(parameters) // 2 # number of layers in the neural networksv = {}s = {}# Initialize v, s. Input: "parameters". Outputs: "v, s".for l in range(L):### START CODE HERE ### (approx. 4 lines)v["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))v["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))s["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))s["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))### END CODE HERE ###return v, s

    In?[11]:

    parameters = initialize_adam_test_case()v, s = initialize_adam(parameters) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) print("s[\"dW1\"] = " + str(s["dW1"])) print("s[\"db1\"] = " + str(s["db1"])) print("s[\"dW2\"] = " + str(s["dW2"])) print("s[\"db2\"] = " + str(s["db2"])) v["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] v["db1"] = [[ 0.][ 0.]] v["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] v["db2"] = [[ 0.][ 0.][ 0.]] s["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] s["db1"] = [[ 0.][ 0.]] s["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] s["db2"] = [[ 0.][ 0.][ 0.]]

    Expected Output:

    **v["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db1"]**[[ 0.] [ 0.]]
    **v["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db2"]**[[ 0.] [ 0.] [ 0.]]
    **s["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **s["db1"]**[[ 0.] [ 0.]]
    **s["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **s["db2"]**[[ 0.] [ 0.] [ 0.]]

    Exercise: Now, implement the parameters update with Adam. Recall the general update rule is, for?l=1,...,Ll=1,...,L:

    ?????????????????????????????vW[l]=β1vW[l]+(1?β1)?J?W[l]vcorrectedW[l]=vW[l]1?(β1)tsW[l]=β2sW[l]+(1?β2)(?J?W[l])2scorrectedW[l]=sW[l]1?(β2)tW[l]=W[l]?αvcorrectedW[l]scorrectedW[l]√+ε{vW[l]=β1vW[l]+(1?β1)?J?W[l]vW[l]corrected=vW[l]1?(β1)tsW[l]=β2sW[l]+(1?β2)(?J?W[l])2sW[l]corrected=sW[l]1?(β2)tW[l]=W[l]?αvW[l]correctedsW[l]corrected+ε

    Note?that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]. You need to shift?l?to?l+1?when coding.

    In?[15]:

    # GRADED FUNCTION: update_parameters_with_adamdef update_parameters_with_adam(parameters, grads, v, s, t, learning_rate = 0.01,beta1 = 0.9, beta2 = 0.999, epsilon = 1e-8):"""Update parameters using AdamArguments:parameters -- python dictionary containing your parameters:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients for each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dblv -- Adam variable, moving average of the first gradient, python dictionarys -- Adam variable, moving average of the squared gradient, python dictionarylearning_rate -- the learning rate, scalar.beta1 -- Exponential decay hyperparameter for the first moment estimates beta2 -- Exponential decay hyperparameter for the second moment estimates epsilon -- hyperparameter preventing division by zero in Adam updatesReturns:parameters -- python dictionary containing your updated parameters v -- Adam variable, moving average of the first gradient, python dictionarys -- Adam variable, moving average of the squared gradient, python dictionary"""L = len(parameters) // 2 # number of layers in the neural networksv_corrected = {} # Initializing first moment estimate, python dictionarys_corrected = {} # Initializing second moment estimate, python dictionary# Perform Adam update on all parametersfor l in range(L):# Moving average of the gradients. Inputs: "v, grads, beta1". Output: "v".### START CODE HERE ### (approx. 2 lines)v["dW" + str(l+1)] = beta1 * v["dW" + str(l+1)] + (1-beta1) * grads['dW' + str(l+1)]v["db" + str(l+1)] = beta1 * v["db" + str(l+1)] + (1-beta1) * grads['db' + str(l+1)]### END CODE HERE #### Compute bias-corrected first moment estimate. Inputs: "v, beta1, t". Output: "v_corrected".### START CODE HERE ### (approx. 2 lines)v_corrected["dW" + str(l+1)] = v["dW" + str(l+1)] / (1 - beta1**t)v_corrected["db" + str(l+1)] = v["db" + str(l+1)] / (1 - beta1**t) # v_corrected["dW" + str(l+1)] = v["dW" + str(l+1)] / (1 - np.exp(beta1, l)) # v_corrected["db" + str(l+1)] = v["db" + str(l+1)] / (1 - np.exp(beta1, l))### END CODE HERE #### Moving average of the squared gradients. Inputs: "s, grads, beta2". Output: "s".### START CODE HERE ### (approx. 2 lines) # s["dW" + str(l+1)] = beta2 * s["dW" + str(l+1)] + (1-beta2) * grads['dW' + str(l+1)] * grads['dW' + str(l+1)] # s["db" + str(l+1)] = beta2 * s["db" + str(l+1)] + (1-beta2) * grads['db' + str(l+1)] * grads['db' + str(l+1)]s["dW" + str(l+1)] = beta2 * s["dW" + str(l+1)] + (1 - beta2)*np.power(grads['dW' + str(l+1)],2)s["db" + str(l+1)] = beta2 * s["db" + str(l+1)] + (1 - beta2)*np.power(grads['db' + str(l+1)],2)### END CODE HERE #### Compute bias-corrected second raw moment estimate. Inputs: "s, beta2, t". Output: "s_corrected".### START CODE HERE ### (approx. 2 lines)s_corrected["dW" + str(l+1)] = s["dW" + str(l+1)] / (1 - beta2**2)s_corrected["db" + str(l+1)] = s["db" + str(l+1)] / (1 - beta2**2)### END CODE HERE #### Update parameters. Inputs: "parameters, learning_rate, v_corrected, s_corrected, epsilon". Output: "parameters".### START CODE HERE ### (approx. 2 lines)parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate*v_corrected["dW" + str(l+1)]/(np.power(s_corrected["dW" + str(l+1)],0.5) + epsilon)parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate*v_corrected["db" + str(l+1)]/(np.power(s_corrected["db" + str(l+1)],0.5) + epsilon)### END CODE HERE ###return parameters, v, s

    In?[16]:

    parameters, grads, v, s = update_parameters_with_adam_test_case() parameters, v, s = update_parameters_with_adam(parameters, grads, v, s, t = 2)print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) print("s[\"dW1\"] = " + str(s["dW1"])) print("s[\"db1\"] = " + str(s["db1"])) print("s[\"dW2\"] = " + str(s["dW2"])) print("s[\"db2\"] = " + str(s["db2"])) W1 = [[ 1.63178673 -0.61919778 -0.53561312][-1.08040999 0.85796626 -2.29409733]] b1 = [[ 1.75225313][-0.75376553]] W2 = [[ 0.32648046 -0.25681174 1.46954931][-2.05269934 -0.31497584 -0.37661299][ 1.14121081 -1.09244991 -0.16498684]] b2 = [[-0.88529979][ 0.03477238][ 0.57537385]] v["dW1"] = [[-0.11006192 0.11447237 0.09015907][ 0.05024943 0.09008559 -0.06837279]] v["db1"] = [[-0.01228902][-0.09357694]] v["dW2"] = [[-0.02678881 0.05303555 -0.06916608][-0.03967535 -0.06871727 -0.08452056][-0.06712461 -0.00126646 -0.11173103]] v["db2"] = [[ 0.02344157][ 0.16598022][ 0.07420442]] s["dW1"] = [[ 0.00121136 0.00131039 0.00081287][ 0.0002525 0.00081154 0.00046748]] s["db1"] = [[ 1.51020075e-05][ 8.75664434e-04]] s["dW2"] = [[ 7.17640232e-05 2.81276921e-04 4.78394595e-04][ 1.57413361e-04 4.72206320e-04 7.14372576e-04][ 4.50571368e-04 1.60392066e-07 1.24838242e-03]] s["db2"] = [[ 5.49507194e-05][ 2.75494327e-03][ 5.50629536e-04]]

    Expected Output:

    **W1**[[ 1.63178673 -0.61919778 -0.53561312] [-1.08040999 0.85796626 -2.29409733]]
    **b1**[[ 1.75225313] [-0.75376553]]
    **W2**[[ 0.32648046 -0.25681174 1.46954931] [-2.05269934 -0.31497584 -0.37661299] [ 1.14121081 -1.09245036 -0.16498684]]
    **b2**[[-0.88529978] [ 0.03477238] [ 0.57537385]]
    **v["dW1"]**[[-0.11006192 0.11447237 0.09015907] [ 0.05024943 0.09008559 -0.06837279]]
    **v["db1"]**[[-0.01228902] [-0.09357694]]
    **v["dW2"]**[[-0.02678881 0.05303555 -0.06916608] [-0.03967535 -0.06871727 -0.08452056] [-0.06712461 -0.00126646 -0.11173103]]
    **v["db2"]**[[ 0.02344157] [ 0.16598022] [ 0.07420442]]
    **s["dW1"]**[[ 0.00121136 0.00131039 0.00081287] [ 0.0002525 0.00081154 0.00046748]]
    **s["db1"]**[[ 1.51020075e-05] [ 8.75664434e-04]]
    **s["dW2"]**[[ 7.17640232e-05 2.81276921e-04 4.78394595e-04] [ 1.57413361e-04 4.72206320e-04 7.14372576e-04] [ 4.50571368e-04 1.60392066e-07 1.24838242e-03]]
    **s["db2"]**[[ 5.49507194e-05] [ 2.75494327e-03] [ 5.50629536e-04]]

    You now have three working optimization algorithms (mini-batch gradient descent, Momentum, Adam). Let's implement a model with each of these optimizers and observe the difference.

    5 - Model with different optimization algorithms

    Lets use the following "moons" dataset to test the different optimization methods. (The dataset is named "moons" because the data from each of the two classes looks a bit like a crescent-shaped moon.)

    In?[17]:

    train_X, train_Y = load_dataset()

    We have already implemented a 3-layer neural network. You will train it with:

    • Mini-batch?Gradient Descent: it will call your function:
      • update_parameters_with_gd()
    • Mini-batch?Momentum: it will call your functions:
      • initialize_velocity()?and?update_parameters_with_momentum()
    • Mini-batch?Adam: it will call your functions:
      • initialize_adam()?and?update_parameters_with_adam()

    In?[18]:

    def model(X, Y, layers_dims, optimizer, learning_rate = 0.0007, mini_batch_size = 64, beta = 0.9,beta1 = 0.9, beta2 = 0.999, epsilon = 1e-8, num_epochs = 10000, print_cost = True):"""3-layer neural network model which can be run in different optimizer modes.Arguments:X -- input data, of shape (2, number of examples)Y -- true "label" vector (1 for blue dot / 0 for red dot), of shape (1, number of examples)layers_dims -- python list, containing the size of each layerlearning_rate -- the learning rate, scalar.mini_batch_size -- the size of a mini batchbeta -- Momentum hyperparameterbeta1 -- Exponential decay hyperparameter for the past gradients estimates beta2 -- Exponential decay hyperparameter for the past squared gradients estimates epsilon -- hyperparameter preventing division by zero in Adam updatesnum_epochs -- number of epochsprint_cost -- True to print the cost every 1000 epochsReturns:parameters -- python dictionary containing your updated parameters """L = len(layers_dims) # number of layers in the neural networkscosts = [] # to keep track of the costt = 0 # initializing the counter required for Adam updateseed = 10 # For grading purposes, so that your "random" minibatches are the same as ours# Initialize parametersparameters = initialize_parameters(layers_dims)# Initialize the optimizerif optimizer == "gd":pass # no initialization required for gradient descentelif optimizer == "momentum":v = initialize_velocity(parameters)elif optimizer == "adam":v, s = initialize_adam(parameters)# Optimization loopfor i in range(num_epochs):# Define the random minibatches. We increment the seed to reshuffle differently the dataset after each epochseed = seed + 1minibatches = random_mini_batches(X, Y, mini_batch_size, seed)for minibatch in minibatches:# Select a minibatch(minibatch_X, minibatch_Y) = minibatch# Forward propagationa3, caches = forward_propagation(minibatch_X, parameters)# Compute costcost = compute_cost(a3, minibatch_Y)# Backward propagationgrads = backward_propagation(minibatch_X, minibatch_Y, caches)# Update parametersif optimizer == "gd":parameters = update_parameters_with_gd(parameters, grads, learning_rate)elif optimizer == "momentum":parameters, v = update_parameters_with_momentum(parameters, grads, v, beta, learning_rate)elif optimizer == "adam":t = t + 1 # Adam counterparameters, v, s = update_parameters_with_adam(parameters, grads, v, s,t, learning_rate, beta1, beta2, epsilon)# Print the cost every 1000 epochif print_cost and i % 1000 == 0:print ("Cost after epoch %i: %f" %(i, cost))if print_cost and i % 100 == 0:costs.append(cost)# plot the costplt.plot(costs)plt.ylabel('cost')plt.xlabel('epochs (per 100)')plt.title("Learning rate = " + str(learning_rate))plt.show()return parameters

    You will now run this 3 layer neural network with each of the 3 optimization methods.

    5.1 - Mini-batch Gradient descent

    Run the following code to see how the model does with mini-batch gradient descent.

    In?[19]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, optimizer = "gd")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Gradient Descent optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690736 Cost after epoch 1000: 0.685273 Cost after epoch 2000: 0.647072 Cost after epoch 3000: 0.619525 Cost after epoch 4000: 0.576584 Cost after epoch 5000: 0.607243 Cost after epoch 6000: 0.529403 Cost after epoch 7000: 0.460768 Cost after epoch 8000: 0.465586 Cost after epoch 9000: 0.464518

    Accuracy: 0.796666666667

    5.2 - Mini-batch gradient descent with momentum

    Run the following code to see how the model does with momentum. Because this example is relatively simple, the gains from using momemtum are small; but for more complex problems you might see bigger gains.

    In?[20]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, beta = 0.9, optimizer = "momentum")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Momentum optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690741 Cost after epoch 1000: 0.685341 Cost after epoch 2000: 0.647145 Cost after epoch 3000: 0.619594 Cost after epoch 4000: 0.576665 Cost after epoch 5000: 0.607324 Cost after epoch 6000: 0.529476 Cost after epoch 7000: 0.460936 Cost after epoch 8000: 0.465780 Cost after epoch 9000: 0.464740

    Accuracy: 0.796666666667

    5.3 - Mini-batch with Adam mode

    Run the following code to see how the model does with Adam.

    In?[21]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, optimizer = "adam")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Adam optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690563 Cost after epoch 1000: 0.651362 Cost after epoch 2000: 0.623838 Cost after epoch 3000: 0.584447 Cost after epoch 4000: 0.539826 Cost after epoch 5000: 0.555550 Cost after epoch 6000: 0.440262 Cost after epoch 7000: 0.329676 Cost after epoch 8000: 0.322698 Cost after epoch 9000: 0.356201

    Accuracy: 0.92

    5.4 - Summary

    **optimization method****accuracy****cost shape**
    Gradient descent79.7%oscillations
    Momentum79.7%oscillations
    Adam94%smoother

    Momentum usually helps, but given the small learning rate and the simplistic dataset, its impact is almost negligeable. Also, the huge oscillations you see in the cost come from the fact that some minibatches are more difficult thans others for the optimization algorithm.

    Adam on the other hand, clearly outperforms mini-batch gradient descent and Momentum. If you run the model for more epochs on this simple dataset, all three methods will lead to very good results. However, you've seen that Adam converges a lot faster.

    Some advantages of Adam include:

    • Relatively low memory requirements (though higher than gradient descent and gradient descent with momentum)
    • Usually works well even with little tuning of hyperparameters (except?αα)

    References:

    • Adam paper:?https://arxiv.org/pdf/1412.6980.pdf

    轉載于:https://my.oschina.net/sizhe/blog/1815653

    總結

    以上是生活随笔為你收集整理的deep learning 作業 2.2的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    99er热精品视频 | 少妇高潮一区二区三区99 | 久久综合狠狠综合久久综合88 | 日韩 欧美 动漫 国产 制服 | 欧美人与禽猛交狂配 | 婷婷五月综合激情中文字幕 | 免费观看激色视频网站 | 国产又爽又猛又粗的视频a片 | 欧美日本免费一区二区三区 | 久久综合给合久久狠狠狠97色 | 老子影院午夜精品无码 | 免费看男女做好爽好硬视频 | 亚洲欧美日韩成人高清在线一区 | 噜噜噜亚洲色成人网站 | 国产高潮视频在线观看 | 免费人成在线观看网站 | 国产成人无码av一区二区 | 六月丁香婷婷色狠狠久久 | 1000部啪啪未满十八勿入下载 | 亚洲日本va中文字幕 | 国产明星裸体无码xxxx视频 | 亚洲欧美日韩成人高清在线一区 | 欧美人与物videos另类 | 99久久精品日本一区二区免费 | 一本久久a久久精品vr综合 | 欧美人与物videos另类 | 又粗又大又硬又长又爽 | 中文亚洲成a人片在线观看 | 东京热一精品无码av | 欧洲精品码一区二区三区免费看 | 麻豆av传媒蜜桃天美传媒 | 一本无码人妻在中文字幕免费 | 西西人体www44rt大胆高清 | 亚洲 高清 成人 动漫 | 少女韩国电视剧在线观看完整 | 久久久久亚洲精品男人的天堂 | 国产激情无码一区二区app | 特黄特色大片免费播放器图片 | 波多野结衣 黑人 | 国产精品美女久久久久av爽李琼 | 国产手机在线αⅴ片无码观看 | 99国产欧美久久久精品 | 国产精品亚洲五月天高清 | 日本精品少妇一区二区三区 | 国产乱人偷精品人妻a片 | 亚洲人成网站在线播放942 | 亚洲日韩精品欧美一区二区 | 最新国产乱人伦偷精品免费网站 | 初尝人妻少妇中文字幕 | 精品国产成人一区二区三区 | 少妇一晚三次一区二区三区 | 国产黑色丝袜在线播放 | 国产午夜福利亚洲第一 | 老子影院午夜精品无码 | 亚洲乱码中文字幕在线 | 夜夜躁日日躁狠狠久久av | 国产精品无套呻吟在线 | 老司机亚洲精品影院无码 | 综合激情五月综合激情五月激情1 | 永久免费观看美女裸体的网站 | 国产在线无码精品电影网 | 久久精品中文字幕一区 | 红桃av一区二区三区在线无码av | 久久久婷婷五月亚洲97号色 | 色综合视频一区二区三区 | 亚洲成在人网站无码天堂 | 无码纯肉视频在线观看 | 精品国产一区二区三区四区在线看 | 又大又硬又爽免费视频 | 亚洲欧美日韩成人高清在线一区 | 国产极品美女高潮无套在线观看 | 国产成人av免费观看 | 日本va欧美va欧美va精品 | 久久天天躁狠狠躁夜夜免费观看 | 麻豆成人精品国产免费 | 国产精品嫩草久久久久 | 久久视频在线观看精品 | 熟妇人妻无乱码中文字幕 | 性生交大片免费看女人按摩摩 | 中国女人内谢69xxxxxa片 | 欧洲熟妇精品视频 | 免费中文字幕日韩欧美 | 欧美成人免费全部网站 | 中文字幕无码av激情不卡 | 亚洲中文无码av永久不收费 | 亚洲精品综合五月久久小说 | 国语自产偷拍精品视频偷 | 亚洲一区二区三区国产精华液 | 99久久亚洲精品无码毛片 | 亚洲国产精品久久久天堂 | 亚洲精品无码国产 | 少妇厨房愉情理9仑片视频 | 又湿又紧又大又爽a视频国产 | 国产激情精品一区二区三区 | 最新国产麻豆aⅴ精品无码 | 奇米影视888欧美在线观看 | 日本乱偷人妻中文字幕 | 国产女主播喷水视频在线观看 | 国产后入清纯学生妹 | 丰满人妻一区二区三区免费视频 | 99视频精品全部免费免费观看 | 荡女精品导航 | 性色欲情网站iwww九文堂 | 亚洲精品无码国产 | 无码人妻出轨黑人中文字幕 | 全黄性性激高免费视频 | 少妇高潮一区二区三区99 | 人人妻人人澡人人爽人人精品 | 女人色极品影院 | 国产成人无码a区在线观看视频app | 国产无遮挡吃胸膜奶免费看 | 亚洲中文无码av永久不收费 | 亚洲理论电影在线观看 | 亚洲日本va午夜在线电影 | 午夜无码人妻av大片色欲 | 老司机亚洲精品影院无码 | 欧美国产亚洲日韩在线二区 | 性欧美熟妇videofreesex | 国产精品亚洲综合色区韩国 | 亚洲精品综合一区二区三区在线 | 国产精品无码成人午夜电影 | 国产成人无码一二三区视频 | 精品久久久无码人妻字幂 | 波多野结衣一区二区三区av免费 | 7777奇米四色成人眼影 | 日产国产精品亚洲系列 | 任你躁在线精品免费 | 国产成人人人97超碰超爽8 | 亚洲午夜久久久影院 | 色欲人妻aaaaaaa无码 | 一本一道久久综合久久 | 噜噜噜亚洲色成人网站 | 粗大的内捧猛烈进出视频 | 国产另类ts人妖一区二区 | 少妇人妻av毛片在线看 | 大肉大捧一进一出好爽视频 | 狠狠cao日日穞夜夜穞av | 久久久久久久女国产乱让韩 | 动漫av一区二区在线观看 | 国产精品久久久久无码av色戒 | 日日碰狠狠躁久久躁蜜桃 | 纯爱无遮挡h肉动漫在线播放 | 内射欧美老妇wbb | 麻豆蜜桃av蜜臀av色欲av | 国产精品美女久久久 | 麻豆av传媒蜜桃天美传媒 | 亚洲爆乳大丰满无码专区 | 日韩av激情在线观看 | 亚洲 激情 小说 另类 欧美 | 亚洲色大成网站www | 精品久久综合1区2区3区激情 | 麻豆国产97在线 | 欧洲 | 亚洲国产精品久久人人爱 | 国产综合久久久久鬼色 | 高潮毛片无遮挡高清免费 | 特黄特色大片免费播放器图片 | 日韩精品无码一本二本三本色 | 免费乱码人妻系列无码专区 | 国产97人人超碰caoprom | 国产真实乱对白精彩久久 | 国产成人综合色在线观看网站 | 中国女人内谢69xxxxxa片 | 亚洲综合无码久久精品综合 | 国产熟妇另类久久久久 | 永久免费精品精品永久-夜色 | 波多野结衣av一区二区全免费观看 | 国产欧美亚洲精品a | 沈阳熟女露脸对白视频 | 色综合久久久无码网中文 | 国产精品久久久久久久影院 | 日本成熟视频免费视频 | 色综合天天综合狠狠爱 | 国产成人一区二区三区在线观看 | 性做久久久久久久免费看 | 国内精品九九久久久精品 | 99久久婷婷国产综合精品青草免费 | 欧美第一黄网免费网站 | 亚洲熟妇色xxxxx欧美老妇y | 无码av免费一区二区三区试看 | 久久久久av无码免费网 | 日本大乳高潮视频在线观看 | 亚洲欧美日韩综合久久久 | 乱人伦人妻中文字幕无码久久网 | 台湾无码一区二区 | 男女下面进入的视频免费午夜 | 狠狠色噜噜狠狠狠7777奇米 | 一本久久a久久精品亚洲 | 日本免费一区二区三区最新 | 欧美丰满老熟妇xxxxx性 | 国产精品亚洲一区二区三区喷水 | 中文精品无码中文字幕无码专区 | 国产美女极度色诱视频www | 国产成人精品一区二区在线小狼 | 亚洲无人区午夜福利码高清完整版 | 国产精品久久久久久久影院 | 亚洲色偷偷偷综合网 | 亚洲一区二区三区香蕉 | 永久免费精品精品永久-夜色 | 亚洲理论电影在线观看 | 久久亚洲中文字幕无码 | 狂野欧美性猛交免费视频 | 大色综合色综合网站 | 中文字幕 亚洲精品 第1页 | 未满小14洗澡无码视频网站 | 东京无码熟妇人妻av在线网址 | 无码国产乱人伦偷精品视频 | 国产区女主播在线观看 | 熟妇人妻中文av无码 | 欧美三级a做爰在线观看 | 日日麻批免费40分钟无码 | 国产婷婷色一区二区三区在线 | 天天做天天爱天天爽综合网 | 久久亚洲国产成人精品性色 | 中文字幕乱码中文乱码51精品 | 日本乱人伦片中文三区 | 精品久久久久久亚洲精品 | 在线播放亚洲第一字幕 | 久久国产36精品色熟妇 | 色婷婷综合中文久久一本 | 伊人久久婷婷五月综合97色 | 久久国产精品精品国产色婷婷 | 欧美性生交活xxxxxdddd | 欧美35页视频在线观看 | 亚洲国产精品毛片av不卡在线 | 亚洲国产欧美国产综合一区 | 国产高清av在线播放 | 国产精品99爱免费视频 | 暴力强奷在线播放无码 | 亚洲人成人无码网www国产 | 76少妇精品导航 | 国内综合精品午夜久久资源 | 久久综合网欧美色妞网 | 久久久www成人免费毛片 | 学生妹亚洲一区二区 | 黑人巨大精品欧美黑寡妇 | 欧美阿v高清资源不卡在线播放 | 88国产精品欧美一区二区三区 | av无码久久久久不卡免费网站 | 亚洲熟妇色xxxxx欧美老妇 | 国产激情艳情在线看视频 | 激情亚洲一区国产精品 | 欧美人与禽zoz0性伦交 | 九九在线中文字幕无码 | 爆乳一区二区三区无码 | 国产美女精品一区二区三区 | 丝袜 中出 制服 人妻 美腿 | 性史性农村dvd毛片 | 欧美国产日韩久久mv | 亚洲日韩乱码中文无码蜜桃臀网站 | 在线精品国产一区二区三区 | 免费观看又污又黄的网站 | 日本乱人伦片中文三区 | 亚洲毛片av日韩av无码 | 玩弄人妻少妇500系列视频 | 色婷婷av一区二区三区之红樱桃 | 无码国产乱人伦偷精品视频 | 亚洲国产欧美日韩精品一区二区三区 | 色五月丁香五月综合五月 | 国产无遮挡又黄又爽又色 | 亚洲爆乳精品无码一区二区三区 | 日本丰满熟妇videos | 少妇一晚三次一区二区三区 | 中国女人内谢69xxxxxa片 | 午夜精品久久久久久久久 | 中文毛片无遮挡高清免费 | 国产亚洲视频中文字幕97精品 | 国产av无码专区亚洲awww | 无码精品人妻一区二区三区av | 俺去俺来也在线www色官网 | 日韩亚洲欧美精品综合 | 亚洲国产av精品一区二区蜜芽 | 国产综合久久久久鬼色 | 在线播放亚洲第一字幕 | 欧洲熟妇精品视频 | 日本护士毛茸茸高潮 | 性欧美牲交xxxxx视频 | 丰满少妇熟乱xxxxx视频 | 在线看片无码永久免费视频 | 久精品国产欧美亚洲色aⅴ大片 | 精品国产乱码久久久久乱码 | 真人与拘做受免费视频 | 久久国产精品_国产精品 | av无码不卡在线观看免费 | 67194成是人免费无码 | 国产精品二区一区二区aⅴ污介绍 | 亚洲 a v无 码免 费 成 人 a v | 无码一区二区三区在线观看 | 在线观看欧美一区二区三区 | 亚洲综合另类小说色区 | 国产sm调教视频在线观看 | 国产激情精品一区二区三区 | 久久视频在线观看精品 | 久久99精品久久久久婷婷 | 极品嫩模高潮叫床 | 色偷偷人人澡人人爽人人模 | 黄网在线观看免费网站 | 久9re热视频这里只有精品 | а天堂中文在线官网 | 久久久国产精品无码免费专区 | 老司机亚洲精品影院无码 | 伊人久久大香线蕉av一区二区 | 国产精品久久久 | 国内精品人妻无码久久久影院 | 荫蒂添的好舒服视频囗交 | 久久精品国产精品国产精品污 | 精品熟女少妇av免费观看 | 精品一二三区久久aaa片 | 成人av无码一区二区三区 | 亚洲人成人无码网www国产 | 日日碰狠狠丁香久燥 | 精品成在人线av无码免费看 | 欧美阿v高清资源不卡在线播放 | 丰满少妇弄高潮了www | 蜜桃视频插满18在线观看 | 99久久精品国产一区二区蜜芽 | 桃花色综合影院 | 日韩欧美成人免费观看 | 欧美老妇交乱视频在线观看 | 国产九九九九九九九a片 | 俺去俺来也www色官网 | 两性色午夜视频免费播放 | 国产精品怡红院永久免费 | 亚洲色欲色欲欲www在线 | 六月丁香婷婷色狠狠久久 | 久久综合九色综合欧美狠狠 | 一本加勒比波多野结衣 | 精品人妻av区 | 午夜成人1000部免费视频 | 毛片内射-百度 | 久久综合激激的五月天 | 亚洲成色www久久网站 | 国产做国产爱免费视频 | 国产偷国产偷精品高清尤物 | 牛和人交xxxx欧美 | 亚洲中文字幕在线无码一区二区 | 麻豆精品国产精华精华液好用吗 | 色噜噜亚洲男人的天堂 | 亚洲成a人片在线观看无码3d | 精品久久8x国产免费观看 | 国产亚洲精品久久久久久 | 人人妻人人澡人人爽人人精品浪潮 | 十八禁真人啪啪免费网站 | 波多野结衣av一区二区全免费观看 | 在线观看欧美一区二区三区 | 内射巨臀欧美在线视频 | 无码国产乱人伦偷精品视频 | 波多野结衣aⅴ在线 | 亚洲中文字幕成人无码 | 国产欧美精品一区二区三区 | 西西人体www44rt大胆高清 | 国产乱人伦av在线无码 | 青草视频在线播放 | 精品一二三区久久aaa片 | a在线亚洲男人的天堂 | 国产香蕉尹人综合在线观看 | 日韩精品无码免费一区二区三区 | 大肉大捧一进一出视频出来呀 | 丰满诱人的人妻3 | 久久精品国产99精品亚洲 | 欧美性色19p | 波多野结衣av一区二区全免费观看 | 国产香蕉尹人视频在线 | 成人欧美一区二区三区黑人免费 | 中文字幕无码日韩专区 | 又粗又大又硬又长又爽 | 国产国语老龄妇女a片 | 久久国产自偷自偷免费一区调 | 狠狠色噜噜狠狠狠狠7777米奇 | 最新国产乱人伦偷精品免费网站 | 真人与拘做受免费视频一 | 荫蒂被男人添的好舒服爽免费视频 | 午夜不卡av免费 一本久久a久久精品vr综合 | 日本一本二本三区免费 | 国产成人无码午夜视频在线观看 | 国产在线aaa片一区二区99 | 久久久婷婷五月亚洲97号色 | 亚洲日韩一区二区三区 | 日韩欧美群交p片內射中文 | 国产av人人夜夜澡人人爽麻豆 | 在线欧美精品一区二区三区 | 成人精品视频一区二区 | 无码人妻丰满熟妇区五十路百度 | 日韩欧美成人免费观看 | 亚欧洲精品在线视频免费观看 | 无码人妻黑人中文字幕 | 久久精品99久久香蕉国产色戒 | √天堂资源地址中文在线 | 亚洲精品中文字幕乱码 | 欧美性生交活xxxxxdddd | 丝袜美腿亚洲一区二区 | 亚洲精品一区二区三区大桥未久 | 激情内射日本一区二区三区 | 国产三级精品三级男人的天堂 | 人妻体内射精一区二区三四 | 最新国产麻豆aⅴ精品无码 | 青草青草久热国产精品 | 高清不卡一区二区三区 | 午夜精品久久久久久久 | 精品少妇爆乳无码av无码专区 | 搡女人真爽免费视频大全 | 亚洲精品中文字幕乱码 | 全球成人中文在线 | 18精品久久久无码午夜福利 | 丰腴饱满的极品熟妇 | 四虎国产精品一区二区 | 亚洲国产欧美在线成人 | 四虎永久在线精品免费网址 | 国产精品资源一区二区 | 午夜福利一区二区三区在线观看 | 国内揄拍国内精品少妇国语 | 亚洲高清偷拍一区二区三区 | 国产sm调教视频在线观看 | 免费人成网站视频在线观看 | 国产乱人伦av在线无码 | 亚洲日本一区二区三区在线 | 天天躁夜夜躁狠狠是什么心态 | 强伦人妻一区二区三区视频18 | 国产一区二区不卡老阿姨 | 午夜理论片yy44880影院 | 亚洲精品久久久久中文第一幕 | 老子影院午夜精品无码 | 97无码免费人妻超级碰碰夜夜 | 欧美 日韩 亚洲 在线 | 人妻aⅴ无码一区二区三区 | 2020久久超碰国产精品最新 | 香蕉久久久久久av成人 | av无码不卡在线观看免费 | 中文字幕无码av激情不卡 | 麻豆人妻少妇精品无码专区 | 中文字幕+乱码+中文字幕一区 | 18无码粉嫩小泬无套在线观看 | 精品无码一区二区三区的天堂 | 漂亮人妻洗澡被公强 日日躁 | 国产欧美熟妇另类久久久 | 亚洲日本va中文字幕 | 国产成人无码av片在线观看不卡 | 婷婷综合久久中文字幕蜜桃三电影 | 成人aaa片一区国产精品 | 中国女人内谢69xxxx | 久久久久成人片免费观看蜜芽 | 蜜桃臀无码内射一区二区三区 | 丝袜美腿亚洲一区二区 | 中国女人内谢69xxxxxa片 | 久久99精品久久久久久 | 牲欲强的熟妇农村老妇女 | 国产精品久免费的黄网站 | 天海翼激烈高潮到腰振不止 | 又大又硬又爽免费视频 | 久久久久亚洲精品中文字幕 | 九九久久精品国产免费看小说 | 成人免费视频一区二区 | 小泽玛莉亚一区二区视频在线 | 99久久亚洲精品无码毛片 | 欧美老人巨大xxxx做受 | 美女毛片一区二区三区四区 | 日欧一片内射va在线影院 | 国产av一区二区三区最新精品 | 少妇无码一区二区二三区 | 亚洲国产精品美女久久久久 | 日韩av无码一区二区三区 | 日产国产精品亚洲系列 | 国产区女主播在线观看 | 精品欧美一区二区三区久久久 | 秋霞特色aa大片 | 欧美国产亚洲日韩在线二区 | 精品久久8x国产免费观看 | 亚洲中文无码av永久不收费 | 久久精品国产99久久6动漫 | 国产精品无套呻吟在线 | 麻豆国产人妻欲求不满 | 日韩无码专区 | 成人免费无码大片a毛片 | 天海翼激烈高潮到腰振不止 | 国产人妖乱国产精品人妖 | 国产特级毛片aaaaaaa高清 | 国产精品亚洲综合色区韩国 | 国内老熟妇对白xxxxhd | 亚洲一区二区三区 | 六十路熟妇乱子伦 | 婷婷色婷婷开心五月四房播播 | 精品无人国产偷自产在线 | 免费观看黄网站 | 乱人伦人妻中文字幕无码 | 黑人粗大猛烈进出高潮视频 | 人妻与老人中文字幕 | 亚洲精品成人av在线 | 亚洲成色www久久网站 | 精品无人区无码乱码毛片国产 | 亚洲啪av永久无码精品放毛片 | 无码午夜成人1000部免费视频 | 欧美黑人乱大交 | 男女爱爱好爽视频免费看 | 丝袜 中出 制服 人妻 美腿 | 国产精品毛片一区二区 | 国产99久久精品一区二区 | 日本一卡二卡不卡视频查询 | 无码乱肉视频免费大全合集 | 久久久久久久久888 | 澳门永久av免费网站 | 丰满少妇熟乱xxxxx视频 | 亚洲精品国产精品乱码视色 | 亚洲色欲久久久综合网东京热 | 中文字幕久久久久人妻 | 狂野欧美性猛交免费视频 | 一本色道婷婷久久欧美 | 亚洲国产av美女网站 | 国产精品高潮呻吟av久久4虎 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产婷婷色一区二区三区在线 | 亚洲国产精品毛片av不卡在线 | 国产麻豆精品一区二区三区v视界 | 久久www免费人成人片 | 中文字幕无码免费久久9一区9 | 色综合天天综合狠狠爱 | 久久国产劲爆∧v内射 | 丰满少妇人妻久久久久久 | 永久免费观看美女裸体的网站 | 99久久久国产精品无码免费 | 成人无码视频在线观看网站 | 欧美成人午夜精品久久久 | a片在线免费观看 | 人人澡人摸人人添 | 亚洲中文字幕在线无码一区二区 | 一个人看的www免费视频在线观看 | 牲欲强的熟妇农村老妇女 | 国产熟妇另类久久久久 | 7777奇米四色成人眼影 | 无遮无挡爽爽免费视频 | 女人被男人爽到呻吟的视频 | 亚洲精品一区二区三区四区五区 | 在线亚洲高清揄拍自拍一品区 | 国产真人无遮挡作爱免费视频 | 51国偷自产一区二区三区 | 国产成人午夜福利在线播放 | 日本xxxx色视频在线观看免费 | 欧美日本日韩 | 亚洲熟妇色xxxxx欧美老妇 | 丰满肥臀大屁股熟妇激情视频 | 亚洲精品成人av在线 | 国产午夜精品一区二区三区嫩草 | 国产精品久久国产三级国 | 精品国产青草久久久久福利 | www成人国产高清内射 | 精品午夜福利在线观看 | 欧美zoozzooz性欧美 | 久久综合给久久狠狠97色 | 天天躁夜夜躁狠狠是什么心态 | 日韩成人一区二区三区在线观看 | 精品成在人线av无码免费看 | 牲欲强的熟妇农村老妇女视频 | 97夜夜澡人人爽人人喊中国片 | 天天拍夜夜添久久精品 | 天天躁日日躁狠狠躁免费麻豆 | 一个人看的视频www在线 | 夜精品a片一区二区三区无码白浆 | 久久综合九色综合欧美狠狠 | 丰满肥臀大屁股熟妇激情视频 | 女人被男人爽到呻吟的视频 | 国产欧美熟妇另类久久久 | 亚洲成a人片在线观看无码 | 国产精品亚洲а∨无码播放麻豆 | 国产精品无码一区二区三区不卡 | 色综合久久88色综合天天 | 亚洲人成网站在线播放942 | 国产片av国语在线观看 | 麻豆精品国产精华精华液好用吗 | 欧美激情一区二区三区成人 | 中文字幕乱码人妻二区三区 | 国产又爽又黄又刺激的视频 | 国产精品久久久久久无码 | 免费无码的av片在线观看 | 国产精品国产三级国产专播 | 国产性生交xxxxx无码 | 国产欧美亚洲精品a | 亚洲国产一区二区三区在线观看 | 老太婆性杂交欧美肥老太 | 图片区 小说区 区 亚洲五月 | 国产精品久久久久久无码 | 精品日本一区二区三区在线观看 | 高潮毛片无遮挡高清免费视频 | 国产成人综合美国十次 | 丰满岳乱妇在线观看中字无码 | 精品一区二区三区波多野结衣 | 人妻尝试又大又粗久久 | 亚洲欧洲日本综合aⅴ在线 | 成在人线av无码免费 | 无码精品国产va在线观看dvd | 亚洲综合在线一区二区三区 | 在线播放免费人成毛片乱码 | 亚洲日韩中文字幕在线播放 | 99久久精品国产一区二区蜜芽 | 捆绑白丝粉色jk震动捧喷白浆 | 国产精品无码久久av | 老头边吃奶边弄进去呻吟 | 亚洲中文字幕va福利 | 国产无套内射久久久国产 | 日韩精品a片一区二区三区妖精 | 人妻aⅴ无码一区二区三区 | 黑人巨大精品欧美黑寡妇 | 精品无码一区二区三区爱欲 | 午夜理论片yy44880影院 | 亚洲精品国偷拍自产在线麻豆 | 免费国产成人高清在线观看网站 | 亚洲毛片av日韩av无码 | 亚洲中文字幕成人无码 | 亚洲综合久久一区二区 | 婷婷色婷婷开心五月四房播播 | 国产香蕉尹人视频在线 | 欧美人与善在线com | 国产成人无码av一区二区 | 成人精品视频一区二区 | 蜜桃臀无码内射一区二区三区 | √8天堂资源地址中文在线 | 免费网站看v片在线18禁无码 | 国产精品鲁鲁鲁 | 亚洲男人av香蕉爽爽爽爽 | 初尝人妻少妇中文字幕 | 最新版天堂资源中文官网 | 无码人妻丰满熟妇区毛片18 | 中文字幕无码av波多野吉衣 | 成人影院yy111111在线观看 | 色综合久久久无码网中文 | 色情久久久av熟女人妻网站 | 欧洲欧美人成视频在线 | 超碰97人人做人人爱少妇 | 欧美日韩一区二区免费视频 | 欧美freesex黑人又粗又大 | 中文字幕av无码一区二区三区电影 | 99久久久无码国产aaa精品 | 无码纯肉视频在线观看 | 狠狠色噜噜狠狠狠7777奇米 | 色情久久久av熟女人妻网站 | 88国产精品欧美一区二区三区 | 中文字幕av伊人av无码av | 亚洲成色www久久网站 | 欧美xxxxx精品 | 欧美丰满老熟妇xxxxx性 | 正在播放老肥熟妇露脸 | 色五月丁香五月综合五月 | 窝窝午夜理论片影院 | 三上悠亚人妻中文字幕在线 | 国产精品久久久久7777 | 亚洲乱码日产精品bd | 国产成人精品久久亚洲高清不卡 | 性欧美牲交xxxxx视频 | 无码国模国产在线观看 | 精品国产青草久久久久福利 | 丝袜 中出 制服 人妻 美腿 | 色婷婷综合激情综在线播放 | 中文字幕无码热在线视频 | 亚洲第一无码av无码专区 | 婷婷综合久久中文字幕蜜桃三电影 | 天下第一社区视频www日本 | 四虎4hu永久免费 | 动漫av一区二区在线观看 | 亚洲熟悉妇女xxx妇女av | 无码国产色欲xxxxx视频 | 国产乱人偷精品人妻a片 | 在线亚洲高清揄拍自拍一品区 | 婷婷五月综合激情中文字幕 | 亚洲欧洲无卡二区视頻 | 欧美激情综合亚洲一二区 | 国产麻豆精品一区二区三区v视界 | 六十路熟妇乱子伦 | 久久久久久久人妻无码中文字幕爆 | 一个人看的www免费视频在线观看 | 亚洲一区二区三区 | 日韩精品乱码av一区二区 | 性欧美熟妇videofreesex | 亚洲欧美日韩国产精品一区二区 | 亚洲乱码中文字幕在线 | 成人影院yy111111在线观看 | 狂野欧美激情性xxxx | 亚洲中文字幕在线观看 | 国产香蕉97碰碰久久人人 | 全黄性性激高免费视频 | 国产无av码在线观看 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产精品免费大片 | 亚洲综合在线一区二区三区 | 久久久久久av无码免费看大片 | 超碰97人人做人人爱少妇 | 亚洲一区二区三区 | av人摸人人人澡人人超碰下载 | yw尤物av无码国产在线观看 | 俺去俺来也在线www色官网 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲人成影院在线观看 | 国产明星裸体无码xxxx视频 | 日本精品人妻无码免费大全 | 十八禁视频网站在线观看 | 亚洲区小说区激情区图片区 | 人人妻人人澡人人爽人人精品 | 无码一区二区三区在线观看 | 国产精品igao视频网 | 5858s亚洲色大成网站www | 女人高潮内射99精品 | 波多野结衣乳巨码无在线观看 | 欧美精品一区二区精品久久 | 亚洲区小说区激情区图片区 | 熟女俱乐部五十路六十路av | 久久综合给合久久狠狠狠97色 | 成人欧美一区二区三区黑人免费 | 国产综合久久久久鬼色 | 欧美丰满老熟妇xxxxx性 | а√天堂www在线天堂小说 | 免费无码肉片在线观看 | 鲁鲁鲁爽爽爽在线视频观看 | 久久久精品欧美一区二区免费 | 日韩精品a片一区二区三区妖精 | 久久久久亚洲精品男人的天堂 | 激情内射亚州一区二区三区爱妻 | 成人影院yy111111在线观看 | 天天摸天天碰天天添 | 亚洲小说春色综合另类 | 成人免费无码大片a毛片 | 国产午夜手机精彩视频 | 天天摸天天透天天添 | 特黄特色大片免费播放器图片 | 中文字幕+乱码+中文字幕一区 | 亚洲中文字幕va福利 | 国产亚洲精品久久久久久大师 | 国产精品a成v人在线播放 | 欧美成人免费全部网站 | 中文字幕av日韩精品一区二区 | 人人妻人人澡人人爽人人精品 | 国产真实乱对白精彩久久 | 偷窥村妇洗澡毛毛多 | 免费无码午夜福利片69 | 久久精品国产精品国产精品污 | 国产成人综合色在线观看网站 | 在线亚洲高清揄拍自拍一品区 | 亚洲色偷偷男人的天堂 | 国产无套内射久久久国产 | 欧美亚洲日韩国产人成在线播放 | 久久精品国产一区二区三区肥胖 | 色欲综合久久中文字幕网 | 日日鲁鲁鲁夜夜爽爽狠狠 | 男人和女人高潮免费网站 | 夜精品a片一区二区三区无码白浆 | 粗大的内捧猛烈进出视频 | 日本丰满熟妇videos | 中文字幕av日韩精品一区二区 | 嫩b人妻精品一区二区三区 | √8天堂资源地址中文在线 | 丰满诱人的人妻3 | 国产精品亚洲五月天高清 | 精品国产麻豆免费人成网站 | 亚洲日韩av片在线观看 | 乱人伦人妻中文字幕无码久久网 | 国精产品一区二区三区 | 国产精品久久国产三级国 | 5858s亚洲色大成网站www | 中文字幕 亚洲精品 第1页 | 国产午夜手机精彩视频 | 欧洲vodafone精品性 | 欧美日韩亚洲国产精品 | 日本熟妇人妻xxxxx人hd | 伊人久久大香线蕉午夜 | 亚洲色大成网站www国产 | 任你躁国产自任一区二区三区 | 亚洲无人区一区二区三区 | 日韩精品a片一区二区三区妖精 | 日韩av激情在线观看 | 国产一区二区三区精品视频 | 少女韩国电视剧在线观看完整 | 天堂在线观看www | 久久99久久99精品中文字幕 | 四十如虎的丰满熟妇啪啪 | 人妻无码αv中文字幕久久琪琪布 | 国产香蕉尹人视频在线 | 国产三级久久久精品麻豆三级 | 国产精品沙发午睡系列 | 西西人体www44rt大胆高清 | 欧美日韩一区二区免费视频 | 国内精品人妻无码久久久影院蜜桃 | 18禁止看的免费污网站 | 99国产精品白浆在线观看免费 | 久久精品中文闷骚内射 | 老熟女重囗味hdxx69 | 国产精品福利视频导航 | 午夜精品一区二区三区在线观看 | 天堂亚洲免费视频 | 国产精品久久国产精品99 | 国产精品自产拍在线观看 | 亚洲男人av天堂午夜在 | 国产真实伦对白全集 | 亚洲乱码中文字幕在线 | 久久99精品久久久久久 | 欧美性生交活xxxxxdddd | 午夜熟女插插xx免费视频 | 国产高清不卡无码视频 | 日日天干夜夜狠狠爱 | 麻豆国产人妻欲求不满 | 人人妻人人藻人人爽欧美一区 | 中文字幕中文有码在线 | 色综合久久中文娱乐网 | 久久国产36精品色熟妇 | 国产精品无码一区二区三区不卡 | 2019午夜福利不卡片在线 | 一个人看的www免费视频在线观看 | 俄罗斯老熟妇色xxxx | 精品国产成人一区二区三区 | 青青青手机频在线观看 | 日韩精品无码免费一区二区三区 | 人妻夜夜爽天天爽三区 | 玩弄少妇高潮ⅹxxxyw | 少妇高潮喷潮久久久影院 | 最新版天堂资源中文官网 | 99riav国产精品视频 | 国产偷抇久久精品a片69 | 一区二区三区乱码在线 | 欧洲 | 精品乱子伦一区二区三区 | 亚洲精品中文字幕久久久久 | 色窝窝无码一区二区三区色欲 | 又湿又紧又大又爽a视频国产 | 国产极品美女高潮无套在线观看 | 国产精品怡红院永久免费 | 中文字幕人妻无码一夲道 | 又大又黄又粗又爽的免费视频 | 久久久国产精品无码免费专区 | 动漫av一区二区在线观看 | 日韩少妇白浆无码系列 | 少妇太爽了在线观看 | 亚洲午夜无码久久 | 天天爽夜夜爽夜夜爽 | 动漫av网站免费观看 | 日韩人妻无码中文字幕视频 | 日韩欧美群交p片內射中文 | 久久天天躁夜夜躁狠狠 | 久久人人爽人人爽人人片ⅴ | 18禁黄网站男男禁片免费观看 | 国产美女极度色诱视频www | 俄罗斯老熟妇色xxxx | 永久黄网站色视频免费直播 | 人妻有码中文字幕在线 | 强辱丰满人妻hd中文字幕 | 噜噜噜亚洲色成人网站 | 美女黄网站人色视频免费国产 | 久久久久成人精品免费播放动漫 | 久久精品国产大片免费观看 | 中文字幕无码免费久久9一区9 | 人妻中文无码久热丝袜 | 在线播放无码字幕亚洲 | 欧美精品一区二区精品久久 | 久久亚洲精品成人无码 | 好屌草这里只有精品 | 日韩无码专区 | 久久综合香蕉国产蜜臀av | 亚洲人成人无码网www国产 | 波多野结衣高清一区二区三区 | 国产激情艳情在线看视频 | 国产另类ts人妖一区二区 | 亚洲va中文字幕无码久久不卡 | 亚洲精品国产品国语在线观看 | 国产精品亚洲а∨无码播放麻豆 | 精品厕所偷拍各类美女tp嘘嘘 | 国产特级毛片aaaaaaa高清 | 麻花豆传媒剧国产免费mv在线 | 亚洲一区二区三区四区 | 中文字幕人成乱码熟女app | 久久午夜无码鲁丝片午夜精品 | 午夜福利一区二区三区在线观看 | 久久精品99久久香蕉国产色戒 | 又色又爽又黄的美女裸体网站 | 兔费看少妇性l交大片免费 | 波多野42部无码喷潮在线 | 成人无码影片精品久久久 | 久青草影院在线观看国产 | 成人欧美一区二区三区黑人免费 | 国产精品高潮呻吟av久久 | 人人爽人人爽人人片av亚洲 | √天堂资源地址中文在线 | 亚洲国产精品成人久久蜜臀 | 无码人妻精品一区二区三区下载 | 亚洲热妇无码av在线播放 | 正在播放东北夫妻内射 | 国产手机在线αⅴ片无码观看 | yw尤物av无码国产在线观看 | 欧美人与善在线com | 日韩av无码一区二区三区不卡 | 国产超级va在线观看视频 | 中文无码精品a∨在线观看不卡 | 天天拍夜夜添久久精品 | 性色欲情网站iwww九文堂 | 真人与拘做受免费视频一 | 亚洲 另类 在线 欧美 制服 | 狠狠亚洲超碰狼人久久 | 国产特级毛片aaaaaa高潮流水 | 日本一卡二卡不卡视频查询 | 国产精品沙发午睡系列 | 午夜免费福利小电影 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产精品a成v人在线播放 | 高潮毛片无遮挡高清免费视频 | 国产 精品 自在自线 | 亚洲aⅴ无码成人网站国产app | 激情内射亚州一区二区三区爱妻 | 色一情一乱一伦一区二区三欧美 | 国产精品无码mv在线观看 | 在教室伦流澡到高潮hnp视频 | 国产精品久久福利网站 | a片免费视频在线观看 | 波多野结衣一区二区三区av免费 | 国产精品无码久久av | 九一九色国产 | 天天做天天爱天天爽综合网 | 老太婆性杂交欧美肥老太 | 国产精品国产自线拍免费软件 | 精品国产一区二区三区四区在线看 | 无码中文字幕色专区 | 丰满少妇弄高潮了www | 精品久久久久久人妻无码中文字幕 | 日日橹狠狠爱欧美视频 | 国产电影无码午夜在线播放 | 色婷婷久久一区二区三区麻豆 | 最新国产乱人伦偷精品免费网站 | 精品一区二区不卡无码av | 欧美丰满少妇xxxx性 | 亚洲日韩av一区二区三区中文 | 99精品视频在线观看免费 | 久久久精品欧美一区二区免费 | 大肉大捧一进一出好爽视频 | 妺妺窝人体色www在线小说 | 又黄又爽又色的视频 | 在线播放免费人成毛片乱码 | 国产真人无遮挡作爱免费视频 | 国产福利视频一区二区 | 日韩视频 中文字幕 视频一区 | 国产精品内射视频免费 | 97夜夜澡人人爽人人喊中国片 | 国产免费无码一区二区视频 | 全球成人中文在线 | 2020久久香蕉国产线看观看 | 女人和拘做爰正片视频 | 久久久婷婷五月亚洲97号色 | 妺妺窝人体色www在线小说 | 国产另类ts人妖一区二区 | 乱中年女人伦av三区 | 国产深夜福利视频在线 | 亚洲熟妇自偷自拍另类 | 精品国产麻豆免费人成网站 | 亚洲精品午夜无码电影网 | 国内精品人妻无码久久久影院 | 丰满少妇人妻久久久久久 | a国产一区二区免费入口 | 正在播放老肥熟妇露脸 | 岛国片人妻三上悠亚 | 亚洲精品综合一区二区三区在线 | 国产女主播喷水视频在线观看 | 麻豆国产人妻欲求不满 | 丰满少妇弄高潮了www | 国产又粗又硬又大爽黄老大爷视 | 亚洲区小说区激情区图片区 | 精品久久久久久亚洲精品 | 国产特级毛片aaaaaa高潮流水 | 久久国语露脸国产精品电影 | 麻豆国产97在线 | 欧洲 | 国产性生大片免费观看性 | 野狼第一精品社区 | 亚洲国产成人av在线观看 | 内射巨臀欧美在线视频 | 免费看男女做好爽好硬视频 | 动漫av一区二区在线观看 | 欧美精品国产综合久久 | 午夜丰满少妇性开放视频 | 国产午夜亚洲精品不卡下载 | 色五月丁香五月综合五月 | 亚洲欧洲无卡二区视頻 | 中文字幕无码人妻少妇免费 | 最新国产乱人伦偷精品免费网站 | 最近中文2019字幕第二页 | 欧美人与禽猛交狂配 | 免费人成在线视频无码 | 中文字幕无码免费久久9一区9 | 性欧美牲交在线视频 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 暴力强奷在线播放无码 | 精品久久久久久人妻无码中文字幕 | 成人性做爰aaa片免费看 | 欧美老人巨大xxxx做受 | 黑人玩弄人妻中文在线 | 亚洲日韩av一区二区三区中文 | 亚洲精品久久久久中文第一幕 | 午夜福利试看120秒体验区 | 亚洲精品综合五月久久小说 | 人妻天天爽夜夜爽一区二区 | 亚洲精品国产品国语在线观看 | 久久久久免费看成人影片 | 麻豆国产97在线 | 欧洲 | 人妻中文无码久热丝袜 | 精品国产一区二区三区四区 | 国产av一区二区三区最新精品 | 亚洲狠狠色丁香婷婷综合 | 中文字幕无码av激情不卡 | 国产精品嫩草久久久久 | 国产亲子乱弄免费视频 | 免费人成在线观看网站 | 国产成人午夜福利在线播放 | 成人精品一区二区三区中文字幕 | 夜精品a片一区二区三区无码白浆 | 在线观看欧美一区二区三区 | 免费无码一区二区三区蜜桃大 | 中文字幕色婷婷在线视频 | 秋霞成人午夜鲁丝一区二区三区 | 亚洲综合精品香蕉久久网 | 成人免费视频一区二区 | 国产精品爱久久久久久久 | 天天拍夜夜添久久精品 | 国产手机在线αⅴ片无码观看 | 成年女人永久免费看片 | 国产又粗又硬又大爽黄老大爷视 | 国产av久久久久精东av | 少妇邻居内射在线 | 四十如虎的丰满熟妇啪啪 | 成年美女黄网站色大免费全看 | 国产极品美女高潮无套在线观看 | 中文字幕无码免费久久9一区9 | 波多野结衣一区二区三区av免费 | 久精品国产欧美亚洲色aⅴ大片 | 蜜桃臀无码内射一区二区三区 | 人妻少妇被猛烈进入中文字幕 | 精品偷拍一区二区三区在线看 | 亚洲午夜福利在线观看 | 成人免费视频视频在线观看 免费 | 久久伊人色av天堂九九小黄鸭 | 色五月丁香五月综合五月 | 97无码免费人妻超级碰碰夜夜 | 亚洲精品美女久久久久久久 | 波多野结衣高清一区二区三区 | 乱人伦中文视频在线观看 | 4hu四虎永久在线观看 | 水蜜桃av无码 | 免费中文字幕日韩欧美 | 久久99精品久久久久婷婷 | 中文精品久久久久人妻不卡 | 国产精品久久久一区二区三区 | 精品久久久久香蕉网 | 在线a亚洲视频播放在线观看 | 国内揄拍国内精品人妻 | 中文字幕人妻丝袜二区 | 草草网站影院白丝内射 | 欧美一区二区三区 | 亚洲人交乣女bbw | www国产亚洲精品久久网站 | а√资源新版在线天堂 | 天天做天天爱天天爽综合网 | 红桃av一区二区三区在线无码av | 免费看少妇作爱视频 | 免费看男女做好爽好硬视频 | 综合激情五月综合激情五月激情1 | 夜夜高潮次次欢爽av女 | 女人被爽到呻吟gif动态图视看 | 日本又色又爽又黄的a片18禁 | 国产色xx群视频射精 | 一本久道高清无码视频 | 黑森林福利视频导航 | 乱码午夜-极国产极内射 | 国内精品人妻无码久久久影院蜜桃 | 国产精品二区一区二区aⅴ污介绍 | 久久综合给合久久狠狠狠97色 | 中文字幕乱码亚洲无线三区 | 精品夜夜澡人妻无码av蜜桃 | 中文字幕精品av一区二区五区 | 久久亚洲a片com人成 | 成人动漫在线观看 | 无码毛片视频一区二区本码 | 夜夜躁日日躁狠狠久久av | 亚洲熟妇色xxxxx欧美老妇y | 日日麻批免费40分钟无码 | 免费国产黄网站在线观看 | 成人一区二区免费视频 | 性生交片免费无码看人 | 成人aaa片一区国产精品 | 漂亮人妻洗澡被公强 日日躁 | 噜噜噜亚洲色成人网站 | 免费无码肉片在线观看 | 亚洲成a人片在线观看无码3d | 欧美zoozzooz性欧美 | 免费无码肉片在线观看 | 亚洲啪av永久无码精品放毛片 | 牛和人交xxxx欧美 | 亚洲精品鲁一鲁一区二区三区 | 国产精品沙发午睡系列 | 亚洲狠狠婷婷综合久久 | 青春草在线视频免费观看 | 亚洲伊人久久精品影院 | 日韩av无码一区二区三区 | 国产无套内射久久久国产 | 国产精品怡红院永久免费 | 人妻尝试又大又粗久久 | 亚洲人成无码网www | 久久国产36精品色熟妇 | 亚洲精品综合五月久久小说 | 精品日本一区二区三区在线观看 | 精品久久久无码人妻字幂 | 在线观看免费人成视频 | 人人妻人人澡人人爽欧美一区九九 | 18禁黄网站男男禁片免费观看 | 国产激情一区二区三区 | 国产一区二区三区精品视频 | 日本欧美一区二区三区乱码 | 无码av中文字幕免费放 | 亚洲精品综合一区二区三区在线 | 精品水蜜桃久久久久久久 | 日本一卡2卡3卡四卡精品网站 | 老子影院午夜精品无码 | 丰满人妻翻云覆雨呻吟视频 | 国产精品久久久久久亚洲毛片 | 久久久久国色av免费观看性色 | 欧美日韩综合一区二区三区 | 国产内射爽爽大片视频社区在线 | 国内精品九九久久久精品 | 午夜无码人妻av大片色欲 | 久久国产精品二国产精品 | 国产内射爽爽大片视频社区在线 | 精品久久久久久人妻无码中文字幕 | 精品熟女少妇av免费观看 | 国产精品a成v人在线播放 | 青青草原综合久久大伊人精品 | 丰满肥臀大屁股熟妇激情视频 | 中文无码伦av中文字幕 | 亚洲无人区一区二区三区 | 一个人看的视频www在线 | 久久综合九色综合欧美狠狠 | 免费无码午夜福利片69 | 欧美放荡的少妇 | 中文字幕无码免费久久99 | 高中生自慰www网站 | 欧美 亚洲 国产 另类 | 欧美黑人乱大交 | 欧美 丝袜 自拍 制服 另类 | 一本大道久久东京热无码av | 色妞www精品免费视频 | 国内精品九九久久久精品 | 无码毛片视频一区二区本码 | 国产香蕉尹人视频在线 | 岛国片人妻三上悠亚 | 久久久精品456亚洲影院 | 国产成人综合在线女婷五月99播放 | 亚洲精品久久久久久一区二区 | 亚洲自偷精品视频自拍 | 一本无码人妻在中文字幕免费 | 学生妹亚洲一区二区 | 日产精品99久久久久久 | 成人动漫在线观看 | 亚洲成av人影院在线观看 | 亚洲成a人片在线观看日本 | 色一情一乱一伦一区二区三欧美 | 熟女俱乐部五十路六十路av | 亚洲日本va午夜在线电影 | 福利一区二区三区视频在线观看 | 中文字幕乱码人妻二区三区 | 四虎4hu永久免费 | 粉嫩少妇内射浓精videos | 亲嘴扒胸摸屁股激烈网站 | 综合激情五月综合激情五月激情1 | 欧美放荡的少妇 | 成人无码视频免费播放 | 国内精品久久久久久中文字幕 | 亚洲の无码国产の无码影院 | 撕开奶罩揉吮奶头视频 | www成人国产高清内射 | 亚洲大尺度无码无码专区 | 麻花豆传媒剧国产免费mv在线 | 人人爽人人澡人人高潮 | 国产精品-区区久久久狼 | 日本丰满护士爆乳xxxx | 精品国产国产综合精品 | 亚洲另类伦春色综合小说 | 免费播放一区二区三区 | 欧美激情综合亚洲一二区 | 国产一区二区三区四区五区加勒比 | 少妇高潮喷潮久久久影院 | 男女性色大片免费网站 | 国产偷国产偷精品高清尤物 | 亚洲一区二区三区四区 | 高清不卡一区二区三区 | 无遮无挡爽爽免费视频 | 亚洲精品成a人在线观看 | 十八禁真人啪啪免费网站 | 欧美国产日韩亚洲中文 | 中文字幕av日韩精品一区二区 | 亚洲一区二区三区在线观看网站 | 精品国产aⅴ无码一区二区 | 亚洲欧美中文字幕5发布 | 精品国产一区二区三区四区 | 丰满少妇熟乱xxxxx视频 | 曰韩少妇内射免费播放 | 中文字幕乱码人妻二区三区 | 日日摸日日碰夜夜爽av | 午夜熟女插插xx免费视频 | 午夜男女很黄的视频 | 国产精品igao视频网 | 97精品人妻一区二区三区香蕉 | 国产亚洲精品久久久久久国模美 | 国内少妇偷人精品视频 | 国产精品久久国产三级国 | 99riav国产精品视频 | 国产一区二区不卡老阿姨 | 色婷婷av一区二区三区之红樱桃 | 精品国产青草久久久久福利 | 搡女人真爽免费视频大全 | 精品久久久无码人妻字幂 | 欧美人与物videos另类 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 老子影院午夜精品无码 | 国产偷国产偷精品高清尤物 | 国产免费无码一区二区视频 | 麻豆人妻少妇精品无码专区 | 大地资源网第二页免费观看 | 无码福利日韩神码福利片 | 成人精品视频一区二区三区尤物 | 国产极品美女高潮无套在线观看 | 午夜成人1000部免费视频 | 免费网站看v片在线18禁无码 | 久久久精品成人免费观看 | 熟妇激情内射com | 亚洲日本va午夜在线电影 | 欧美日韩亚洲国产精品 | 西西人体www44rt大胆高清 | 亚洲人亚洲人成电影网站色 | 欧美freesex黑人又粗又大 | 天海翼激烈高潮到腰振不止 | www国产精品内射老师 | 乱人伦人妻中文字幕无码 | 18精品久久久无码午夜福利 | 精品人妻av区 | ass日本丰满熟妇pics | 精品国产国产综合精品 | 性欧美疯狂xxxxbbbb | 亚洲欧美日韩成人高清在线一区 | 性做久久久久久久久 | 女人被爽到呻吟gif动态图视看 | 国产又爽又猛又粗的视频a片 | 亚洲精品成a人在线观看 | 鲁大师影院在线观看 | 麻豆人妻少妇精品无码专区 | 精品无人国产偷自产在线 | 亚洲欧美精品伊人久久 | 日本精品少妇一区二区三区 | 国产人成高清在线视频99最全资源 | 99久久99久久免费精品蜜桃 | 婷婷色婷婷开心五月四房播播 | 国产热a欧美热a在线视频 | 乱人伦中文视频在线观看 | 午夜免费福利小电影 | 丁香花在线影院观看在线播放 | 免费视频欧美无人区码 | 亚洲成a人片在线观看日本 | 免费无码一区二区三区蜜桃大 | 少妇无码av无码专区在线观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲色成人中文字幕网站 | 欧美成人午夜精品久久久 | 99精品国产综合久久久久五月天 | 国产一区二区三区四区五区加勒比 | 精品久久久久香蕉网 | 内射老妇bbwx0c0ck | 国产亚洲精品久久久久久 | 亚洲午夜福利在线观看 | 日韩精品久久久肉伦网站 | 激情人妻另类人妻伦 | 中文字幕无码av波多野吉衣 | 性生交大片免费看女人按摩摩 | 乱码午夜-极国产极内射 | 67194成是人免费无码 | 人妻体内射精一区二区三四 | 欧美性生交xxxxx久久久 | 老太婆性杂交欧美肥老太 | 荫蒂被男人添的好舒服爽免费视频 | 国产av一区二区精品久久凹凸 | 欧美放荡的少妇 | 日日碰狠狠丁香久燥 | 荫蒂被男人添的好舒服爽免费视频 | 日韩精品无码一区二区中文字幕 | 十八禁视频网站在线观看 | 正在播放老肥熟妇露脸 | 久久天天躁狠狠躁夜夜免费观看 | 麻豆国产丝袜白领秘书在线观看 | 丰满妇女强制高潮18xxxx | 午夜性刺激在线视频免费 | 国产激情综合五月久久 | 久久久久免费精品国产 | 少妇高潮喷潮久久久影院 | 两性色午夜视频免费播放 | 男人和女人高潮免费网站 | 国产精品美女久久久 | 国产欧美精品一区二区三区 | 99久久久无码国产aaa精品 | 性欧美疯狂xxxxbbbb | 亚洲日本在线电影 | 国产电影无码午夜在线播放 | 欧美 丝袜 自拍 制服 另类 | 高潮毛片无遮挡高清免费视频 | 成人三级无码视频在线观看 | 午夜精品久久久内射近拍高清 | 99er热精品视频 | 亚洲狠狠色丁香婷婷综合 | 蜜臀aⅴ国产精品久久久国产老师 | 国产亚洲精品久久久ai换 | 男人扒开女人内裤强吻桶进去 | 亚洲精品一区二区三区婷婷月 | 四虎4hu永久免费 | 红桃av一区二区三区在线无码av | 国产亚洲精品久久久ai换 | 亚洲爆乳精品无码一区二区三区 | 国产成人无码一二三区视频 | 亚洲色大成网站www | 亚洲国产精品久久久天堂 | 国产深夜福利视频在线 | 国产网红无码精品视频 | 97久久超碰中文字幕 | 在线精品亚洲一区二区 | 亚洲精品一区二区三区在线观看 | 中文字幕乱妇无码av在线 | 国产精品无码mv在线观看 | 欧美黑人乱大交 | 久久99精品久久久久久 | 中文字幕日产无线码一区 | 天天av天天av天天透 | 色综合久久中文娱乐网 | 国产亚洲美女精品久久久2020 | 日本精品久久久久中文字幕 | 色欲人妻aaaaaaa无码 | 国产成人无码av在线影院 | 99精品久久毛片a片 | 久久久久久久女国产乱让韩 | 精品无码成人片一区二区98 | 东京无码熟妇人妻av在线网址 | 久久国语露脸国产精品电影 | 妺妺窝人体色www在线小说 | 特黄特色大片免费播放器图片 | 无码av岛国片在线播放 | 日本丰满护士爆乳xxxx | 无码任你躁久久久久久久 | 一个人免费观看的www视频 | 国产97色在线 | 免 | 国产av无码专区亚洲awww | 国色天香社区在线视频 | 国产精品香蕉在线观看 | 好男人社区资源 | 久久久精品国产sm最大网站 | 欧美人与禽猛交狂配 | 性色av无码免费一区二区三区 | 福利一区二区三区视频在线观看 | 精品国产一区二区三区av 性色 | 日韩亚洲欧美中文高清在线 | 婷婷综合久久中文字幕蜜桃三电影 | 国内精品久久久久久中文字幕 | 亚洲熟妇色xxxxx欧美老妇 | 国产色xx群视频射精 | 熟妇人妻无码xxx视频 | 成人毛片一区二区 | 日产精品99久久久久久 | 亚洲自偷自拍另类第1页 | 久久久久久亚洲精品a片成人 | 亚洲爆乳无码专区 | 老熟妇仑乱视频一区二区 | 中文字幕无码av激情不卡 | 欧美丰满熟妇xxxx | 18无码粉嫩小泬无套在线观看 | 亚洲乱码日产精品bd | 久久99国产综合精品 | 国产情侣作爱视频免费观看 | 亚洲日韩一区二区三区 | 国产成人无码一二三区视频 | 亚洲中文字幕av在天堂 | 无码纯肉视频在线观看 | 老头边吃奶边弄进去呻吟 | 欧美精品免费观看二区 | 一本色道久久综合狠狠躁 | 亚洲人成影院在线观看 | 日韩人妻少妇一区二区三区 | 国语自产偷拍精品视频偷 | а天堂中文在线官网 | 粉嫩少妇内射浓精videos | 日韩无套无码精品 | 成人性做爰aaa片免费看不忠 | 久久久久久亚洲精品a片成人 | 午夜理论片yy44880影院 | 欧美日韩一区二区三区自拍 | 亚洲成av人片在线观看无码不卡 | 国产极品美女高潮无套在线观看 | 久久精品中文字幕大胸 | 人妻少妇精品久久 | 成在人线av无码免费 | 久久久久人妻一区精品色欧美 | 日本精品少妇一区二区三区 | 久久综合给久久狠狠97色 | 成人欧美一区二区三区 | 国产亚洲欧美日韩亚洲中文色 | 亚洲码国产精品高潮在线 | 久久亚洲国产成人精品性色 | 在线看片无码永久免费视频 | 国产精品第一区揄拍无码 | 大地资源网第二页免费观看 | 国产香蕉尹人综合在线观看 | 久久久久se色偷偷亚洲精品av | 特黄特色大片免费播放器图片 | 人妻少妇精品久久 | 欧美日本精品一区二区三区 | 狠狠色丁香久久婷婷综合五月 | 三级4级全黄60分钟 | 久久久国产一区二区三区 | 国产极品视觉盛宴 | √天堂中文官网8在线 | 色一情一乱一伦一视频免费看 | 人妻无码αv中文字幕久久琪琪布 | 午夜理论片yy44880影院 | 亚洲综合无码一区二区三区 | 亚洲 日韩 欧美 成人 在线观看 | av在线亚洲欧洲日产一区二区 | 国产亚av手机在线观看 | 无码人妻少妇伦在线电影 | 国产色xx群视频射精 | а√资源新版在线天堂 | 天天综合网天天综合色 | 国产精品久久久午夜夜伦鲁鲁 | 国产成人久久精品流白浆 | 午夜精品久久久久久久久 | 300部国产真实乱 | 亚洲熟妇自偷自拍另类 | 国产亚洲美女精品久久久2020 | 欧洲vodafone精品性 | 国产精品人人妻人人爽 | 亚洲一区二区三区国产精华液 | 亚洲精品美女久久久久久久 | 国产精品亚洲lv粉色 | www一区二区www免费 | 亚洲精品一区二区三区在线观看 | 欧美怡红院免费全部视频 | 色婷婷综合中文久久一本 | 国产xxx69麻豆国语对白 | 九九久久精品国产免费看小说 | 久久久久99精品成人片 | 无套内谢的新婚少妇国语播放 | 成人试看120秒体验区 | 强奷人妻日本中文字幕 | 久久久久亚洲精品男人的天堂 | 在线精品亚洲一区二区 | 中文字幕无码热在线视频 | 亚洲国产精品美女久久久久 | 亚洲成av人片在线观看无码不卡 | 久久综合狠狠综合久久综合88 | 亚洲精品午夜无码电影网 | 欧美刺激性大交 | 国产精品视频免费播放 | 美女毛片一区二区三区四区 | 51国偷自产一区二区三区 | 成年女人永久免费看片 | 国色天香社区在线视频 | 水蜜桃亚洲一二三四在线 | 帮老师解开蕾丝奶罩吸乳网站 | 久久这里只有精品视频9 | 中文字幕日产无线码一区 | 亚洲国精产品一二二线 | 精品人人妻人人澡人人爽人人 | 成人无码精品一区二区三区 | 97人妻精品一区二区三区 | 久久99精品国产麻豆 | 最新国产乱人伦偷精品免费网站 | 国产av一区二区精品久久凹凸 | 国产人妻精品一区二区三区 | 人妻无码久久精品人妻 | 久久精品一区二区三区四区 | 久久午夜无码鲁丝片秋霞 | 亚洲成a人片在线观看日本 | 色 综合 欧美 亚洲 国产 | 午夜精品一区二区三区的区别 | 久久久久久九九精品久 | 国产精品久久久久久久9999 | 国产69精品久久久久app下载 | 日本一区二区三区免费高清 | 亚洲欧美综合区丁香五月小说 | av无码久久久久不卡免费网站 | 亚洲中文无码av永久不收费 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲日韩一区二区 | 国产午夜无码精品免费看 | 亚洲欧美国产精品专区久久 | 亚洲日韩一区二区 | 久久久久久久人妻无码中文字幕爆 | 男女猛烈xx00免费视频试看 | 7777奇米四色成人眼影 | 亚洲天堂2017无码中文 | 99riav国产精品视频 | 国产精品亚洲五月天高清 | 欧美 亚洲 国产 另类 | 内射后入在线观看一区 | 久久熟妇人妻午夜寂寞影院 | 久久午夜夜伦鲁鲁片无码免费 | 人妻夜夜爽天天爽三区 | 欧美猛少妇色xxxxx | 亚洲s色大片在线观看 | 久久精品国产大片免费观看 | 日本www一道久久久免费榴莲 | 久久精品国产99精品亚洲 | 中文字幕av无码一区二区三区电影 | 精品国产精品久久一区免费式 | 亚洲午夜福利在线观看 | 精品久久综合1区2区3区激情 | 欧美日韩在线亚洲综合国产人 | 一个人看的视频www在线 | 综合激情五月综合激情五月激情1 | 色综合视频一区二区三区 | 国产免费久久精品国产传媒 | 亚洲精品国产精品乱码不卡 | 日韩少妇内射免费播放 | 男女性色大片免费网站 | 人妻少妇精品久久 | 久久熟妇人妻午夜寂寞影院 | 日本精品高清一区二区 | 给我免费的视频在线观看 | 丰满少妇弄高潮了www | 乱码午夜-极国产极内射 | 99国产欧美久久久精品 | 成在人线av无码免费 | 在线观看免费人成视频 | 日韩精品无码一本二本三本色 | 国产亚洲欧美日韩亚洲中文色 | 77777熟女视频在线观看 а天堂中文在线官网 | 欧美熟妇另类久久久久久不卡 | 亚洲日韩精品欧美一区二区 | 中文毛片无遮挡高清免费 | 中文无码精品a∨在线观看不卡 | 99riav国产精品视频 | 欧美国产亚洲日韩在线二区 | 成熟女人特级毛片www免费 | 国产精品无码永久免费888 | 人人妻人人澡人人爽欧美一区九九 | 国产激情无码一区二区 | 国产精品理论片在线观看 | 大胆欧美熟妇xx | 中文字幕av伊人av无码av | 亚洲中文字幕久久无码 | 99久久无码一区人妻 | 久久精品国产一区二区三区 | av无码久久久久不卡免费网站 | 久久久国产精品无码免费专区 | 欧洲极品少妇 | 人人妻人人澡人人爽人人精品浪潮 | 在线成人www免费观看视频 | 六十路熟妇乱子伦 | 久久久久久九九精品久 | 中文字幕av无码一区二区三区电影 | 波多野结衣高清一区二区三区 | 亚洲一区二区三区无码久久 | yw尤物av无码国产在线观看 | 国产精品久久久av久久久 | 国产精品igao视频网 | 无码人妻精品一区二区三区下载 | 亚洲无人区午夜福利码高清完整版 | 少妇久久久久久人妻无码 | 少妇无码av无码专区在线观看 | 2019午夜福利不卡片在线 | 性色av无码免费一区二区三区 | 中国女人内谢69xxxxxa片 | 草草网站影院白丝内射 | 99精品国产综合久久久久五月天 | 久久午夜无码鲁丝片午夜精品 | 色综合久久88色综合天天 | aⅴ亚洲 日韩 色 图网站 播放 | 日日天干夜夜狠狠爱 | 亚洲一区二区观看播放 | 嫩b人妻精品一区二区三区 | 成熟女人特级毛片www免费 | 激情国产av做激情国产爱 | 欧美精品国产综合久久 | 国产av无码专区亚洲awww | 色综合久久久久综合一本到桃花网 | 免费视频欧美无人区码 | 亚洲精品综合一区二区三区在线 | 亚洲精品国产精品乱码不卡 | 日本熟妇大屁股人妻 | 国产 精品 自在自线 | 97夜夜澡人人双人人人喊 | 国产精品igao视频网 | 久久99精品国产麻豆 | 久久国产36精品色熟妇 | 一本大道伊人av久久综合 | 18精品久久久无码午夜福利 | 国产美女精品一区二区三区 | 国产情侣作爱视频免费观看 | 97se亚洲精品一区 | 国产亚洲美女精品久久久2020 | 中文无码伦av中文字幕 | 人人爽人人爽人人片av亚洲 | 噜噜噜亚洲色成人网站 | 一本色道婷婷久久欧美 | 亚洲精品成人av在线 | 丰满少妇弄高潮了www | 欧美三级a做爰在线观看 | 中文精品无码中文字幕无码专区 | 在线观看国产午夜福利片 | 300部国产真实乱 | 十八禁视频网站在线观看 | 性啪啪chinese东北女人 | 午夜福利一区二区三区在线观看 | 久久久无码中文字幕久... | 成人精品一区二区三区中文字幕 | 国产亚洲精品久久久ai换 | 国产成人精品无码播放 | www国产亚洲精品久久网站 | 日本熟妇浓毛 | 国产女主播喷水视频在线观看 | 午夜精品一区二区三区在线观看 | 国产av无码专区亚洲awww | 男人和女人高潮免费网站 | 成人无码精品一区二区三区 | 国产精品欧美成人 | 国产精品资源一区二区 | 精品一二三区久久aaa片 | 久久久av男人的天堂 | 欧洲美熟女乱又伦 | 国精产品一区二区三区 | 国产又爽又猛又粗的视频a片 | 亚洲日韩精品欧美一区二区 | 中国大陆精品视频xxxx | 国产在线aaa片一区二区99 | 国产片av国语在线观看 | 鲁鲁鲁爽爽爽在线视频观看 | 久精品国产欧美亚洲色aⅴ大片 | 窝窝午夜理论片影院 | 国产特级毛片aaaaaa高潮流水 | 国产精品无码成人午夜电影 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲精品一区三区三区在线观看 | 中文字幕 亚洲精品 第1页 | 成人亚洲精品久久久久 | 三上悠亚人妻中文字幕在线 | 国产人成高清在线视频99最全资源 | 精品久久久无码中文字幕 | 国产精品鲁鲁鲁 | 免费无码av一区二区 | 天堂在线观看www | 国产午夜视频在线观看 | 男人和女人高潮免费网站 | 少妇性俱乐部纵欲狂欢电影 | 亚洲人成影院在线无码按摩店 | 国产偷国产偷精品高清尤物 | 欧洲欧美人成视频在线 | 丰满少妇弄高潮了www | 成人一在线视频日韩国产 | √天堂资源地址中文在线 | 久久精品视频在线看15 | 强奷人妻日本中文字幕 | 国产又粗又硬又大爽黄老大爷视 | 东京热一精品无码av | 东京一本一道一二三区 | 成人免费视频在线观看 | 久久久久成人片免费观看蜜芽 | 亚洲狠狠色丁香婷婷综合 | 亚洲欧美国产精品久久 | 精品国偷自产在线 | 国产精品内射视频免费 | 亚洲精品国偷拍自产在线麻豆 | 人人妻人人藻人人爽欧美一区 | 免费人成在线视频无码 | 亚洲精品综合五月久久小说 | 四虎4hu永久免费 | 蜜桃臀无码内射一区二区三区 | 亚洲中文字幕av在天堂 | 国产两女互慰高潮视频在线观看 | 成人av无码一区二区三区 | 无码人妻精品一区二区三区下载 | 国产人妻精品午夜福利免费 | 国产精品沙发午睡系列 | 国产精品久久久久无码av色戒 | 久久国语露脸国产精品电影 | 少妇一晚三次一区二区三区 | 在线成人www免费观看视频 | 未满成年国产在线观看 | 精品久久8x国产免费观看 | 亚洲成av人片天堂网无码】 | 欧美熟妇另类久久久久久不卡 |