3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

cs231n:assignment2——Q4: ConvNet on CIFAR-10

發布時間:2023/12/20 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 cs231n:assignment2——Q4: ConvNet on CIFAR-10 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

視頻里 Andrej Karpathy上課的時候說,這次的作業meaty but educational,確實很meaty,作業一般是由.ipynb文件和.py文件組成,這次因為每個.ipynb文件涉及到的.py文件較多,且互相之間有交叉,所以每篇博客只貼出一個.ipynb或者一個.py文件.(因為之前的作業由于是一個.ipynb文件對應一個.py文件,所以就整合到一篇博客里)
還是那句話,有錯誤希望幫我指出來,多多指教,謝謝
ConvolutionalNetworks.ipynb內容:

  • Convolutional Networks
  • Convolution Naive forward pass
  • Aside Image processing via convolutions
  • Convolution Naive backward pass
  • Max pooling Naive forward
  • Max pooling Naive backward
  • Fast layers
  • Convolutional sandwich layers
  • Three-layer ConvNet
    • Sanity check loss
    • Gradient check
    • Overfit small data
    • Train the net
    • Visualize Filters
  • Spatial Batch Normalization
    • Spatial batch normalization forward
    • Spatial batch normalization backward
  • Experiment
      • Things you should try
      • Tips for training
      • Going above and beyond
      • What we expect
  • Extra Credit Description

Convolutional Networks

So far we have worked with deep fully-connected networks, using them to explore different optimization strategies and network architectures. Fully-connected networks are a good testbed for experimentation because they are very computationally efficient, but in practice all state-of-the-art results use convolutional networks instead.

First you will implement several layer types that are used in convolutional networks. You will then use these layers to train a convolutional network on the CIFAR-10 dataset.

# As usual, a bit of setupimport numpy as np import matplotlib.pyplot as plt from cs231n.classifiers.cnn import * from cs231n.data_utils import get_CIFAR10_data from cs231n.gradient_check import eval_numerical_gradient_array, eval_numerical_gradient from cs231n.layers import * from cs231n.fast_layers import * from cs231n.solver import Solver%matplotlib inline plt.rcParams['figure.figsize'] = (10.0, 8.0) # set default size of plots plt.rcParams['image.interpolation'] = 'nearest' plt.rcParams['image.cmap'] = 'gray'# for auto-reloading external modules # see http://stackoverflow.com/questions/1907993/autoreload-of-modules-in-ipython %load_ext autoreload %autoreload 2def rel_error(x, y):""" returns relative error """return np.max(np.abs(x - y) / (np.maximum(1e-8, np.abs(x) + np.abs(y)))) # Load the (preprocessed) CIFAR10 data.data = get_CIFAR10_data() for k, v in data.iteritems():print '%s: ' % k, v.shape X_val: (1000, 3, 32, 32) X_train: (49000, 3, 32, 32) X_test: (1000, 3, 32, 32) y_val: (1000,) y_train: (49000,) y_test: (1000,)

Convolution: Naive forward pass

The core of a convolutional network is the convolution operation. In the file cs231n/layers.py, implement the forward pass for the convolution layer in the function conv_forward_naive.

You don’t have to worry too much about efficiency at this point; just write the code in whatever way you find most clear.

You can test your implementation by running the following:

x_shape = (2, 3, 4, 4) w_shape = (3, 3, 4, 4) x = np.linspace(-0.1, 0.5, num=np.prod(x_shape)).reshape(x_shape) w = np.linspace(-0.2, 0.3, num=np.prod(w_shape)).reshape(w_shape) b = np.linspace(-0.1, 0.2, num=3)conv_param = {'stride': 2, 'pad': 1} out, _ = conv_forward_naive(x, w, b, conv_param) correct_out = np.array([[[[-0.08759809, -0.10987781],[-0.18387192, -0.2109216 ]],[[ 0.21027089, 0.21661097],[ 0.22847626, 0.23004637]],[[ 0.50813986, 0.54309974],[ 0.64082444, 0.67101435]]],[[[-0.98053589, -1.03143541],[-1.19128892, -1.24695841]],[[ 0.69108355, 0.66880383],[ 0.59480972, 0.56776003]],[[ 2.36270298, 2.36904306],[ 2.38090835, 2.38247847]]]]) # Compare your output to ours; difference should be around 1e-8 print 'Testing conv_forward_naive' print 'difference: ', rel_error(out, correct_out) Testing conv_forward_naive difference: 2.21214764175e-08

Aside: Image processing via convolutions

As fun way to both check your implementation and gain a better understanding of the type of operation that convolutional layers can perform, we will set up an input containing two images and manually set up filters that perform common image processing operations (grayscale conversion and edge detection). The convolution forward pass will apply these operations to each of the input images. We can then visualize the results as a sanity check.

from scipy.misc import imread, imresizekitten, puppy = imread('kitten.jpg'), imread('puppy.jpg') # kitten is wide, and puppy is already square d = kitten.shape[1] - kitten.shape[0] kitten_cropped = kitten[:, d/2:-d/2, :]img_size = 200 # Make this smaller if it runs too slow x = np.zeros((2, 3, img_size, img_size)) x[0, :, :, :] = imresize(puppy, (img_size, img_size)).transpose((2, 0, 1)) x[1, :, :, :] = imresize(kitten_cropped, (img_size, img_size)).transpose((2, 0, 1))# Set up a convolutional weights holding 2 filters, each 3x3 w = np.zeros((2, 3, 3, 3))# The first filter converts the image to grayscale. # Set up the red, green, and blue channels of the filter. w[0, 0, :, :] = [[0, 0, 0], [0, 0.3, 0], [0, 0, 0]] w[0, 1, :, :] = [[0, 0, 0], [0, 0.6, 0], [0, 0, 0]] w[0, 2, :, :] = [[0, 0, 0], [0, 0.1, 0], [0, 0, 0]]# Second filter detects horizontal edges in the blue channel. w[1, 2, :, :] = [[1, 2, 1], [0, 0, 0], [-1, -2, -1]]# Vector of biases. We don't need any bias for the grayscale # filter, but for the edge detection filter we want to add 128 # to each output so that nothing is negative. b = np.array([0, 128])# Compute the result of convolving each input in x with each filter in w, # offsetting by b, and storing the results in out. out, _ = conv_forward_naive(x, w, b, {'stride': 1, 'pad': 1})def imshow_noax(img, normalize=True):""" Tiny helper to show images as uint8 and remove axis labels """if normalize:img_max, img_min = np.max(img), np.min(img)img = 255.0 * (img - img_min) / (img_max - img_min)plt.imshow(img.astype('uint8'))plt.gca().axis('off')# Show the original images and the results of the conv operation plt.subplot(2, 3, 1) imshow_noax(puppy, normalize=False) plt.title('Original image') plt.subplot(2, 3, 2) imshow_noax(out[0, 0]) plt.title('Grayscale') plt.subplot(2, 3, 3) imshow_noax(out[0, 1]) plt.title('Edges') plt.subplot(2, 3, 4) imshow_noax(kitten_cropped, normalize=False) plt.subplot(2, 3, 5) imshow_noax(out[1, 0]) plt.subplot(2, 3, 6) imshow_noax(out[1, 1]) plt.show()

Convolution: Naive backward pass

Implement the backward pass for the convolution operation in the function conv_backward_naive in the file cs231n/layers.py. Again, you don’t need to worry too much about computational efficiency.

When you are done, run the following to check your backward pass with a numeric gradient check.

x = np.random.randn(4, 3, 5, 5) w = np.random.randn(2, 3, 3, 3) b = np.random.randn(2,) dout = np.random.randn(4, 2, 5, 5) conv_param = {'stride': 1, 'pad': 1}dx_num = eval_numerical_gradient_array(lambda x: conv_forward_naive(x, w, b, conv_param)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: conv_forward_naive(x, w, b, conv_param)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: conv_forward_naive(x, w, b, conv_param)[0], b, dout)out, cache = conv_forward_naive(x, w, b, conv_param) dx, dw, db = conv_backward_naive(dout, cache)# Your errors should be around 1e-9' print 'Testing conv_backward_naive function' print 'dx error: ', rel_error(dx, dx_num) print 'dw error: ', rel_error(dw, dw_num) print 'db error: ', rel_error(db, db_num) Testing conv_backward_naive function dx error: 1.14027414431e-09 dw error: 2.30256641538e-10 db error: 3.20966816447e-12

Max pooling: Naive forward

Implement the forward pass for the max-pooling operation in the function max_pool_forward_naive in the file cs231n/layers.py. Again, don’t worry too much about computational efficiency.

Check your implementation by running the following:

x_shape = (2, 3, 4, 4) x = np.linspace(-0.3, 0.4, num=np.prod(x_shape)).reshape(x_shape) pool_param = {'pool_width': 2, 'pool_height': 2, 'stride': 2}out, _ = max_pool_forward_naive(x, pool_param)correct_out = np.array([[[[-0.26315789, -0.24842105],[-0.20421053, -0.18947368]],[[-0.14526316, -0.13052632],[-0.08631579, -0.07157895]],[[-0.02736842, -0.01263158],[ 0.03157895, 0.04631579]]],[[[ 0.09052632, 0.10526316],[ 0.14947368, 0.16421053]],[[ 0.20842105, 0.22315789],[ 0.26736842, 0.28210526]],[[ 0.32631579, 0.34105263],[ 0.38526316, 0.4 ]]]]) print correct_out.shape# Compare your output with ours. Difference should be around 1e-8. print 'Testing max_pool_forward_naive function:' print 'difference: ', rel_error(out, correct_out) (2, 3, 2, 2) Testing max_pool_forward_naive function: difference: 4.16666651573e-08

Max pooling: Naive backward

Implement the backward pass for the max-pooling operation in the function max_pool_backward_naive in the file cs231n/layers.py. You don’t need to worry about computational efficiency.

Check your implementation with numeric gradient checking by running the following:

x = np.random.randn(3, 2, 8, 8) dout = np.random.randn(3, 2, 4, 4) pool_param = {'pool_height': 2, 'pool_width': 2, 'stride': 2}dx_num = eval_numerical_gradient_array(lambda x: max_pool_forward_naive(x, pool_param)[0], x, dout)out, cache = max_pool_forward_naive(x, pool_param) dx = max_pool_backward_naive(dout, cache)# Your error should be around 1e-12 print 'Testing max_pool_backward_naive function:' print 'dx error: ', rel_error(dx, dx_num) Testing max_pool_backward_naive function: dx error: 3.27563382511e-12

Fast layers

Making convolution and pooling layers fast can be challenging. To spare you the pain, we’ve provided fast implementations of the forward and backward passes for convolution and pooling layers in the file cs231n/fast_layers.py.

The fast convolution implementation depends on a Cython extension; to compile it you need to run the following from the cs231n directory:

python setup.py build_ext --inplace

The API for the fast versions of the convolution and pooling layers is exactly the same as the naive versions that you implemented above: the forward pass receives data, weights, and parameters and produces outputs and a cache object; the backward pass recieves upstream derivatives and the cache object and produces gradients with respect to the data and weights.

NOTE: The fast implementation for pooling will only perform optimally if the pooling regions are non-overlapping and tile the input. If these conditions are not met then the fast pooling implementation will not be much faster than the naive implementation.

You can compare the performance of the naive and fast versions of these layers by running the following:

from cs231n.fast_layers import conv_forward_fast, conv_backward_fast from time import timex = np.random.randn(100, 3, 31, 31) w = np.random.randn(25, 3, 3, 3) b = np.random.randn(25,) dout = np.random.randn(100, 25, 16, 16) conv_param = {'stride': 2, 'pad': 1}t0 = time() out_naive, cache_naive = conv_forward_naive(x, w, b, conv_param) t1 = time() out_fast, cache_fast = conv_forward_fast(x, w, b, conv_param) t2 = time()print 'Testing conv_forward_fast:' print 'Naive: %fs' % (t1 - t0) print 'Fast: %fs' % (t2 - t1) print 'Speedup: %fx' % ((t1 - t0) / (t2 - t1)) print 'Difference: ', rel_error(out_naive, out_fast)t0 = time() dx_naive, dw_naive, db_naive = conv_backward_naive(dout, cache_naive) t1 = time() dx_fast, dw_fast, db_fast = conv_backward_fast(dout, cache_fast) t2 = time()print '\nTesting conv_backward_fast:' print 'Naive: %fs' % (t1 - t0) print 'Fast: %fs' % (t2 - t1) print 'Speedup: %fx' % ((t1 - t0) / (t2 - t1)) print 'dx difference: ', rel_error(dx_naive, dx_fast) print 'dw difference: ', rel_error(dw_naive, dw_fast) print 'db difference: ', rel_error(db_naive, db_fast) Testing conv_forward_fast: Naive: 23.932088s Fast: 0.015995s Speedup: 1496.220665x Difference: 2.1149165916e-11Testing conv_backward_fast: Naive: 23.537247s Fast: 0.010192s Speedup: 2309.349201x dx difference: 5.65990987256e-12 dw difference: 1.43212406176e-12 db difference: 0.0 from cs231n.fast_layers import max_pool_forward_fast, max_pool_backward_fastx = np.random.randn(100, 3, 32, 32) dout = np.random.randn(100, 3, 16, 16) pool_param = {'pool_height': 2, 'pool_width': 2, 'stride': 2}t0 = time() out_naive, cache_naive = max_pool_forward_naive(x, pool_param) t1 = time() out_fast, cache_fast = max_pool_forward_fast(x, pool_param) t2 = time()print 'Testing pool_forward_fast:' print 'Naive: %fs' % (t1 - t0) print 'fast: %fs' % (t2 - t1) print 'speedup: %fx' % ((t1 - t0) / (t2 - t1)) print 'difference: ', rel_error(out_naive, out_fast)t0 = time() dx_naive = max_pool_backward_naive(dout, cache_naive) t1 = time() dx_fast = max_pool_backward_fast(dout, cache_fast) t2 = time()print '\nTesting pool_backward_fast:' print 'Naive: %fs' % (t1 - t0) print 'speedup: %fx' % ((t1 - t0) / (t2 - t1)) print 'dx difference: ', rel_error(dx_naive, dx_fast) Testing pool_forward_fast: Naive: 1.115254s fast: 0.002008s speedup: 555.416172x difference: 0.0Testing pool_backward_fast: Naive: 0.476396s speedup: 39.999800x dx difference: 0.0

Convolutional “sandwich” layers

Previously we introduced the concept of “sandwich” layers that combine multiple operations into commonly used patterns. In the file cs231n/layer_utils.py you will find sandwich layers that implement a few commonly used patterns for convolutional networks.

from cs231n.layer_utils import *x = np.random.randn(2, 3, 16, 16) w = np.random.randn(3, 3, 3, 3) b = np.random.randn(3,) dout = np.random.randn(2, 3, 8, 8) conv_param = {'stride': 1, 'pad': 1} pool_param = {'pool_height': 2, 'pool_width': 2, 'stride': 2} bn_param = {'mode': 'train'} gamma = np.ones(w.shape[0]) beta = np.zeros(w.shape[0])###check conv_relu_pool_forward out, cache = conv_relu_pool_forward(x, w, b, conv_param, pool_param) dx, dw, db = conv_relu_pool_backward(dout, cache)dx_num = eval_numerical_gradient_array(lambda x: conv_relu_pool_forward(x, w, b, conv_param, pool_param)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: conv_relu_pool_forward(x, w, b, conv_param, pool_param)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: conv_relu_pool_forward(x, w, b, conv_param, pool_param)[0], b, dout)print 'Testing conv_relu_pool' print 'dx error: ', rel_error(dx_num, dx) print 'dw error: ', rel_error(dw_num, dw) print 'db error: ', rel_error(db_num, db)## check conv_bn_relu_pool_forward ## 加了spacial batch normalization以后, db不知道為什么誤差這么大,可能是因為b的維數較少所以計算中有很大一部分是加和, ## 所以積累每一元素上的小誤差,也可能是在第一層網絡,反向傳播到第一層的時候誤差就會累計的比較大 out, cache = conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param) dx, dw, db, dgamma, dbeta = conv_bn_relu_pool_backward(dout, cache)dx_num = eval_numerical_gradient_array(lambda x: conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param)[0], b, dout) dgamma_num = eval_numerical_gradient_array(lambda gamma: conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param)[0], gamma, dout) dbeta_num = eval_numerical_gradient_array(lambda beta: conv_bn_relu_pool_forward(x, w, b, gamma, beta, conv_param, pool_param, bn_param)[0], beta, dout)print print 'Testing conv_relu_pool' print 'dx error: ', rel_error(dx_num, dx) print 'dw error: ', rel_error(dw_num, dw) print 'db error: ', rel_error(db_num, db) print 'dgamma error: ', rel_error(dgamma_num, dgamma) print 'dbeta error: ', rel_error(dbeta_num, dbeta) Testing conv_relu_pool dx error: 1.07784659804e-08 dw error: 3.73875622936e-09 db error: 8.74414919539e-11Testing conv_relu_pool dx error: 1.54664016081e-06 dw error: 1.96618403155e-09 db error: 0.0185469286087 dgamma error: 9.44011367278e-12 dbeta error: 1.32364005526e-11 from cs231n.layer_utils import conv_relu_forward, conv_relu_backwardx = np.random.randn(2, 3, 8, 8) w = np.random.randn(3, 3, 3, 3) b = np.random.randn(3,) dout = np.random.randn(2, 3, 8, 8) conv_param = {'stride': 1, 'pad': 1}out, cache = conv_relu_forward(x, w, b, conv_param) dx, dw, db = conv_relu_backward(dout, cache)dx_num = eval_numerical_gradient_array(lambda x: conv_relu_forward(x, w, b, conv_param)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: conv_relu_forward(x, w, b, conv_param)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: conv_relu_forward(x, w, b, conv_param)[0], b, dout)print 'Testing conv_relu:' print 'dx error: ', rel_error(dx_num, dx) print 'dw error: ', rel_error(dw_num, dw) print 'db error: ', rel_error(db_num, db) Testing conv_relu: dx error: 2.54502598987e-09 dw error: 4.53460011947e-10 db error: 6.7945865355e-09

Three-layer ConvNet

Now that you have implemented all the necessary layers, we can put them together into a simple convolutional network.

Open the file cs231n/cnn.py and complete the implementation of the ThreeLayerConvNet class. Run the following cells to help you debug:

Sanity check loss

After you build a new network, one of the first things you should do is sanity check the loss. When we use the softmax loss, we expect the loss for random weights (and no regularization) to be about log(C) for C classes. When we add regularization this should go up.

model = ThreeLayerConvNet()N = 50 X = np.random.randn(N, 3, 32, 32) y = np.random.randint(10, size=N)loss, grads = model.loss(X, y) print 'Initial loss (no regularization): ', lossmodel.reg = 0.5 loss, grads = model.loss(X, y) print 'Initial loss (with regularization): ', loss Initial loss (no regularization): 2.30258381546 Initial loss (with regularization): 2.50837260664

Gradient check

After the loss looks reasonable, use numeric gradient checking to make sure that your backward pass is correct. When you use numeric gradient checking you should use a small amount of artifical data and a small number of neurons at each layer.

num_inputs = 2 input_dim = (3, 16, 16) reg = 0.0 num_classes = 10 X = np.random.randn(num_inputs, *input_dim) y = np.random.randint(num_classes, size=num_inputs)model = ThreeLayerConvNet(num_filters=3, filter_size=3,input_dim=input_dim, hidden_dim=7,dtype=np.float64) loss, grads = model.loss(X, y) for param_name in sorted(grads):f = lambda _: model.loss(X, y)[0]param_grad_num = eval_numerical_gradient(f, model.params[param_name], verbose=False, h=1e-6)e = rel_error(param_grad_num, grads[param_name])print '%s max relative error: %e' % (param_name, rel_error(param_grad_num, grads[param_name])) W1 max relative error: 9.833916e-04 W2 max relative error: 6.500223e-03 W3 max relative error: 2.111341e-04 b1 max relative error: 4.609401e-05 b2 max relative error: 4.915309e-08 b3 max relative error: 6.948804e-10

Overfit small data

A nice trick is to train your model with just a few training samples. You should be able to overfit small datasets, which will result in very high training accuracy and comparatively low validation accuracy.

num_train = 100 small_data = {'X_train': data['X_train'][:num_train],'y_train': data['y_train'][:num_train],'X_val': data['X_val'],'y_val': data['y_val'], }model = ThreeLayerConvNet(weight_scale=1e-2)solver = Solver(model, small_data,num_epochs=10, batch_size=50,update_rule='adam',optim_config={'learning_rate': 1e-3,},verbose=True, print_every=1) solver.train() (Iteration 1 / 20) loss: 2.327333 (Epoch 0 / 10) train acc: 0.210000; val_acc: 0.129000 (Iteration 2 / 20) loss: 2.920699 (Epoch 1 / 10) train acc: 0.180000; val_acc: 0.136000 (Iteration 3 / 20) loss: 2.843339 (Iteration 4 / 20) loss: 2.256272 (Epoch 2 / 10) train acc: 0.140000; val_acc: 0.080000 (Iteration 5 / 20) loss: 3.195308 (Iteration 6 / 20) loss: 2.364024 (Epoch 3 / 10) train acc: 0.360000; val_acc: 0.199000 (Iteration 7 / 20) loss: 2.414444 (Iteration 8 / 20) loss: 2.564107 (Epoch 4 / 10) train acc: 0.390000; val_acc: 0.199000 (Iteration 9 / 20) loss: 2.238707 (Iteration 10 / 20) loss: 1.846348 (Epoch 5 / 10) train acc: 0.290000; val_acc: 0.156000 (Iteration 11 / 20) loss: 1.713543 (Iteration 12 / 20) loss: 1.578357 (Epoch 6 / 10) train acc: 0.580000; val_acc: 0.207000 (Iteration 13 / 20) loss: 1.487418 (Iteration 14 / 20) loss: 1.152261 (Epoch 7 / 10) train acc: 0.660000; val_acc: 0.207000 (Iteration 15 / 20) loss: 1.103686 (Iteration 16 / 20) loss: 1.153359 (Epoch 8 / 10) train acc: 0.680000; val_acc: 0.173000 (Iteration 17 / 20) loss: 1.311634 (Iteration 18 / 20) loss: 0.984277 (Epoch 9 / 10) train acc: 0.780000; val_acc: 0.231000 (Iteration 19 / 20) loss: 0.987850 (Iteration 20 / 20) loss: 0.655680 (Epoch 10 / 10) train acc: 0.840000; val_acc: 0.264000

Plotting the loss, training accuracy, and validation accuracy should show clear overfitting:

plt.subplot(2, 1, 1) plt.plot(solver.loss_history, 'o') plt.xlabel('iteration') plt.ylabel('loss')plt.subplot(2, 1, 2) plt.plot(solver.train_acc_history, '-o') plt.plot(solver.val_acc_history, '-o') plt.legend(['train', 'val'], loc='upper left') plt.xlabel('epoch') plt.ylabel('accuracy') plt.show()

Train the net

By training the three-layer convolutional network for one epoch, you should achieve greater than 40% accuracy on the training set:

model = ThreeLayerConvNet(weight_scale=0.001, hidden_dim=500, reg=0.001)solver = Solver(model, data,num_epochs=1, batch_size=50,update_rule='adam',optim_config={'learning_rate': 1e-3,},verbose=True, print_every=20) solver.train() (Iteration 1 / 980) loss: 2.304576 (Epoch 0 / 1) train acc: 0.108000; val_acc: 0.098000 (Iteration 21 / 980) loss: 1.965750 (Iteration 41 / 980) loss: 1.979698 (Iteration 61 / 980) loss: 2.101320 (Iteration 81 / 980) loss: 1.901987 (Iteration 101 / 980) loss: 1.823573 (Iteration 121 / 980) loss: 1.559670 (Iteration 141 / 980) loss: 1.521758 (Iteration 161 / 980) loss: 1.614254 (Iteration 181 / 980) loss: 1.525828 (Iteration 201 / 980) loss: 1.801237 (Iteration 221 / 980) loss: 1.771171 (Iteration 241 / 980) loss: 1.935747 (Iteration 261 / 980) loss: 1.706197 (Iteration 281 / 980) loss: 1.771841 (Iteration 301 / 980) loss: 1.730827 (Iteration 321 / 980) loss: 1.766924 (Iteration 341 / 980) loss: 1.604705 (Iteration 361 / 980) loss: 1.689329 (Iteration 381 / 980) loss: 1.487211 (Iteration 401 / 980) loss: 1.652397 (Iteration 421 / 980) loss: 1.624637 (Iteration 441 / 980) loss: 1.774464 (Iteration 461 / 980) loss: 1.728469 (Iteration 481 / 980) loss: 1.990141 (Iteration 501 / 980) loss: 1.571801 (Iteration 521 / 980) loss: 1.592427 (Iteration 541 / 980) loss: 1.860452 (Iteration 561 / 980) loss: 1.967219 (Iteration 581 / 980) loss: 1.513192 (Iteration 601 / 980) loss: 1.872284 (Iteration 621 / 980) loss: 1.673944 (Iteration 641 / 980) loss: 1.810775 (Iteration 661 / 980) loss: 1.636547 (Iteration 681 / 980) loss: 1.489698 (Iteration 701 / 980) loss: 1.718354 (Iteration 721 / 980) loss: 1.916079 (Iteration 741 / 980) loss: 1.666237 (Iteration 761 / 980) loss: 1.716002 (Iteration 781 / 980) loss: 1.543222 (Iteration 801 / 980) loss: 1.491887 (Iteration 821 / 980) loss: 1.967372 (Iteration 841 / 980) loss: 1.685699 (Iteration 861 / 980) loss: 1.239976 (Iteration 881 / 980) loss: 1.609454 (Iteration 901 / 980) loss: 1.513272 (Iteration 921 / 980) loss: 1.752893 (Iteration 941 / 980) loss: 1.586221 (Iteration 961 / 980) loss: 1.616744 (Epoch 1 / 1) train acc: 0.476000; val_acc: 0.490000

Visualize Filters

You can visualize the first-layer convolutional filters from the trained network by running the following:

from cs231n.vis_utils import visualize_gridgrid = visualize_grid(model.params['W1'].transpose(0, 2, 3, 1)) plt.imshow(grid.astype('uint8')) plt.axis('off') plt.gcf().set_size_inches(5, 5) plt.show()

Spatial Batch Normalization

We already saw that batch normalization is a very useful technique for training deep fully-connected networks. Batch normalization can also be used for convolutional networks, but we need to tweak it a bit; the modification will be called “spatial batch normalization.”

Normally batch-normalization accepts inputs of shape (N, D) and produces outputs of shape (N, D), where we normalize across the minibatch dimension N. For data coming from convolutional layers, batch normalization needs to accept inputs of shape (N, C, H, W) and produce outputs of shape (N, C, H, W) where the N dimension gives the minibatch size and the (H, W) dimensions give the spatial size of the feature map.

If the feature map was produced using convolutions, then we expect the statistics of each feature channel to be relatively consistent both between different images and different locations within the same image. Therefore spatial batch normalization computes a mean and variance for each of the C feature channels by computing statistics over both the minibatch dimension N and the spatial dimensions H and W.

Spatial batch normalization: forward

In the file cs231n/layers.py, implement the forward pass for spatial batch normalization in the function spatial_batchnorm_forward. Check your implementation by running the following:

# Check the training-time forward pass by checking means and variances # of features both before and after spatial batch normalizationN, C, H, W = 2, 3, 4, 5 x = 4 * np.random.randn(N, C, H, W) + 10print 'Before spatial batch normalization:' print ' Shape: ', x.shape print ' Means: ', x.mean(axis=(0, 2, 3)) print ' Stds: ', x.std(axis=(0, 2, 3))# Means should be close to zero and stds close to one gamma, beta = np.ones(C), np.zeros(C) bn_param = {'mode': 'train'} out, _ = spatial_batchnorm_forward(x, gamma, beta, bn_param) print 'After spatial batch normalization:' print ' Shape: ', out.shape print ' Means: ', out.mean(axis=(0, 2, 3)) print ' Stds: ', out.std(axis=(0, 2, 3))# Means should be close to beta and stds close to gamma gamma, beta = np.asarray([3, 4, 5]), np.asarray([6, 7, 8]) out, _ = spatial_batchnorm_forward(x, gamma, beta, bn_param) print 'After spatial batch normalization (nontrivial gamma, beta):' print ' Shape: ', out.shape print ' Means: ', out.mean(axis=(0, 2, 3)) print ' Stds: ', out.std(axis=(0, 2, 3)) Before spatial batch normalization:Shape: (2, 3, 4, 5)Means: [ 11.09151825 10.38671938 9.79044576]Stds: [ 4.23766998 4.62486377 4.55046613] After spatial batch normalization:Shape: (2, 3, 4, 5)Means: [ 1.16573418e-16 8.54871729e-16 1.99840144e-16]Stds: [ 0.99999972 0.99999977 0.99999976] After spatial batch normalization (nontrivial gamma, beta):Shape: (2, 3, 4, 5)Means: [ 6. 7. 8.]Stds: [ 2.99999916 3.99999906 4.99999879] i=0# Check the test-time forward pass by running the training-time # forward pass many times to warm up the running averages, and then # checking the means and variances of activations after a test-time # forward pass.N, C, H, W = 10, 4, 11, 12bn_param = {'mode': 'train'} gamma = np.ones(C) beta = np.zeros(C) for t in xrange(50):x = 2.3 * np.random.randn(N, C, H, W) + 13spatial_batchnorm_forward(x, gamma, beta, bn_param) bn_param['mode'] = 'test' x = 2.3 * np.random.randn(N, C, H, W) + 13 a_norm, _ = spatial_batchnorm_forward(x, gamma, beta, bn_param)# Means should be close to zero and stds close to one, but will be # noisier than training-time forward passes. print 'After spatial batch normalization (test-time):' print ' means: ', a_norm.mean(axis=(0, 2, 3)) print ' stds: ', a_norm.std(axis=(0, 2, 3)) After spatial batch normalization (test-time):means: [ 0.06975173 0.06009512 0.02887493 0.02397713]stds: [ 1.00763471 0.99021634 0.99863325 0.97411123]

Spatial batch normalization: backward

In the file cs231n/layers.py, implement the backward pass for spatial batch normalization in the function spatial_batchnorm_backward. Run the following to check your implementation using a numeric gradient check:

N, C, H, W = 2, 3, 4, 5 x = 5 * np.random.randn(N, C, H, W) + 12 gamma = np.random.randn(C) beta = np.random.randn(C) dout = np.random.randn(N, C, H, W)bn_param = {'mode': 'train'} fx = lambda x: spatial_batchnorm_forward(x, gamma, beta, bn_param)[0] fg = lambda a: spatial_batchnorm_forward(x, gamma, beta, bn_param)[0] fb = lambda b: spatial_batchnorm_forward(x, gamma, beta, bn_param)[0]dx_num = eval_numerical_gradient_array(fx, x, dout) da_num = eval_numerical_gradient_array(fg, gamma, dout) db_num = eval_numerical_gradient_array(fb, beta, dout)_, cache = spatial_batchnorm_forward(x, gamma, beta, bn_param) dx, dgamma, dbeta = spatial_batchnorm_backward(dout, cache) print 'dx error: ', rel_error(dx_num, dx) print 'dgamma error: ', rel_error(da_num, dgamma) print 'dbeta error: ', rel_error(db_num, dbeta) dx error: 4.3762056051e-08 dgamma error: 4.25829344038e-11 dbeta error: 5.07865400281e-12

Experiment!

Experiment and try to get the best performance that you can on CIFAR-10 using a ConvNet. Here are some ideas to get you started:

Things you should try:

  • Filter size: Above we used 7x7; this makes pretty pictures but smaller filters may be more efficient
  • Number of filters: Above we used 32 filters. Do more or fewer do better?
  • Batch normalization: Try adding spatial batch normalization after convolution layers and vanilla batch normalization after affine layers. Do your networks train faster?
  • Network architecture: The network above has two layers of trainable parameters. Can you do better with a deeper network? You can implement alternative architectures in the file cs231n/classifiers/convnet.py. Some good architectures to try include:
    • [conv-relu-pool]xN - conv - relu - [affine]xM - [softmax or SVM]
    • [conv-relu-pool]XN - [affine]XM - [softmax or SVM]
    • [conv-relu-conv-relu-pool]xN - [affine]xM - [softmax or SVM]

Tips for training

For each network architecture that you try, you should tune the learning rate and regularization strength. When doing this there are a couple important things to keep in mind:

  • If the parameters are working well, you should see improvement within a few hundred iterations
  • Remember the course-to-fine approach for hyperparameter tuning: start by testing a large range of hyperparameters for just a few training iterations to find the combinations of parameters that are working at all.
  • Once you have found some sets of parameters that seem to work, search more finely around these parameters. You may need to train for more epochs.

Going above and beyond

If you are feeling adventurous there are many other features you can implement to try and improve your performance. You are not required to implement any of these; however they would be good things to try for extra credit.

  • Alternative update steps: For the assignment we implemented SGD+momentum, RMSprop, and Adam; you could try alternatives like AdaGrad or AdaDelta.
  • Alternative activation functions such as leaky ReLU, parametric ReLU, or MaxOut.
  • Model ensembles
  • Data augmentation

If you do decide to implement something extra, clearly describe it in the “Extra Credit Description” cell below.

What we expect

At the very least, you should be able to train a ConvNet that gets at least 65% accuracy on the validation set. This is just a lower bound - if you are careful it should be possible to get accuracies much higher than that! Extra credit points will be awarded for particularly high-scoring models or unique approaches.

You should use the space below to experiment and train your network. The final cell in this notebook should contain the training, validation, and test set accuracies for your final trained network. In this notebook you should also write an explanation of what you did, any additional features that you implemented, and any visualizations or graphs that you make in the process of training and evaluating your network.

Have fun and happy training!

model = ConvNetArch_1([(2,7),(4,5)], [5,5], connect_conv=(4,3), use_batchnorm=True,loss_fuction = 'softmax', weight_scale=5e-2, reg=0, dtype=np.float64)###################### check shape of initial parameters: ####################### for k, v in model.params.iteritems(): # print "%s" % k, model.params[k].shape########################################################################################################### Sanit check loss: ###################################### zengjia batch norm yihou,結果在2.7,2.8,2.9左右,應該是在2.3左右才對,不知道哪里出錯了, #### 可能是batch norm加太多了,每一層后面都有 N = 10 X = np.random.randn(N, 3, 32, 32) y = np.random.randint(10, size=N)loss, _ = model.loss(X, y) print 'Initial loss (no regularization): ', lossmodel.reg = 0.1 loss, _ = model.loss(X, y) print 'Initial loss (with regularization): ', loss######################################################################################################### Sanity gradient check : ###############################N = 2 ### X的寬和高設為16,加快運算, 計算數值梯度的速度特別慢 X = np.random.randn(N, 3, 16, 16) y = np.random.randint(10, size=N)model = ConvNetArch_1([(2,3)], [5,5], input_dim=(3, 16, 16), connect_conv=(2,3), use_batchnorm=True,loss_fuction = 'softmax', weight_scale=5e-2, reg=0, dtype=np.float64)loss, grads = model.loss(X, y)for param_name in sorted(grads):f = lambda _: model.loss(X, y)[0]param_grad_num = eval_numerical_gradient(f, model.params[param_name], verbose=False, h=1e-6)#print param_grad_nume = rel_error(param_grad_num, grads[param_name])print '%s max relative error: %e' % (param_name, rel_error(param_grad_num, grads[param_name]))######################################################## Initial loss (no regularization): 2.8666209542 Initial loss (with regularization): 3.12124148165 CCW max relative error: 3.688953e-06 CW1 max relative error: 2.849567e-06 FW1 max relative error: 8.171128e-03 FW2 max relative error: 6.072839e-06 cb1 max relative error: 6.661434e-02 cbeta1 max relative error: 1.112161e-08 ccb max relative error: 4.440936e-01 ccbeta max relative error: 5.932733e-09 ccgamma max relative error: 7.900637e-09 cgamma1 max relative error: 3.363437e-09 fb1 max relative error: 3.552714e-07 fb2 max relative error: 7.993606e-07 fbeta1 max relative error: 6.106227e-08 fbeta2 max relative error: 5.441469e-10 fgamma1 max relative error: 3.206630e-09 fgamma2 max relative error: 9.478054e-10 ### 程序運行太慢了,目前這個參數是試的第一組,效果還不錯,第二輪迭代就達到50+% ### 跑了一晚上發現大約在第10次以后開始過擬合了,所以改為epoch=10,best_val_acc = 0.683, ### 之前epoch=20時,best_val_acc大概能到能到70% ### 在我電腦上,程序跑太慢,所以就沒怎么調參數 ### 考慮到這速度,下面這種結構就沒有實現: ### [conv-relu-conv-relu-pool]xN - [affine]xM - [softmax or SVM] ### 目前可以實現下面兩種結構: ### [conv-relu-pool]xN - conv - relu - [affine]xM - [softmax or SVM] ### [conv-relu-pool]XN - [affine]XM - [softmax or SVM]model = ConvNetArch_1([(32,3),(64,3),(128,3)], [100], connect_conv=0, use_batchnorm=False,loss_fuction = 'softmax', weight_scale=5e-2, reg=0, dtype=np.float64)solver = Solver(model, data,num_epochs=10, batch_size=100,update_rule='adam',optim_config={'learning_rate': 1e-3},print_every=100,lr_decay=0.95,verbose=True) solver.train() print solver.best_val_acc (Iteration 1 / 4900) loss: 47.549210 (Epoch 0 / 10) train acc: 0.122000; val_acc: 0.124000 (Iteration 101 / 4900) loss: 1.889701 (Iteration 201 / 4900) loss: 1.628195 (Iteration 301 / 4900) loss: 1.503709 (Iteration 401 / 4900) loss: 1.284585 (Epoch 1 / 10) train acc: 0.497000; val_acc: 0.531000 (Iteration 501 / 4900) loss: 1.277860 (Iteration 601 / 4900) loss: 1.215424 (Iteration 701 / 4900) loss: 1.209591 (Iteration 801 / 4900) loss: 1.173904 (Iteration 901 / 4900) loss: 1.068132 (Epoch 2 / 10) train acc: 0.594000; val_acc: 0.580000 (Iteration 1001 / 4900) loss: 1.062385 (Iteration 1101 / 4900) loss: 1.080026 (Iteration 1201 / 4900) loss: 0.758866 (Iteration 1301 / 4900) loss: 0.818387 (Iteration 1401 / 4900) loss: 1.086589 (Epoch 3 / 10) train acc: 0.674000; val_acc: 0.616000 (Iteration 1501 / 4900) loss: 0.980248 (Iteration 1601 / 4900) loss: 0.964738 (Iteration 1701 / 4900) loss: 1.003369 (Iteration 1801 / 4900) loss: 0.974146 (Iteration 1901 / 4900) loss: 1.043093 (Epoch 4 / 10) train acc: 0.727000; val_acc: 0.645000 (Iteration 2001 / 4900) loss: 0.684164 (Iteration 2101 / 4900) loss: 0.899941 (Iteration 2201 / 4900) loss: 0.670452 (Iteration 2301 / 4900) loss: 0.715849 (Iteration 2401 / 4900) loss: 0.798524 (Epoch 5 / 10) train acc: 0.759000; val_acc: 0.661000 (Iteration 2501 / 4900) loss: 0.725618 (Iteration 2601 / 4900) loss: 0.702008 (Iteration 2701 / 4900) loss: 0.591424 (Iteration 2801 / 4900) loss: 0.943362 (Iteration 2901 / 4900) loss: 0.450685 (Epoch 6 / 10) train acc: 0.773000; val_acc: 0.674000 (Iteration 3001 / 4900) loss: 0.898413 (Iteration 3101 / 4900) loss: 0.627382 (Iteration 3201 / 4900) loss: 0.454569 (Iteration 3301 / 4900) loss: 0.446561 (Iteration 3401 / 4900) loss: 0.499366 (Epoch 7 / 10) train acc: 0.795000; val_acc: 0.667000 (Iteration 3501 / 4900) loss: 0.503052 (Iteration 3601 / 4900) loss: 0.408205 (Iteration 3701 / 4900) loss: 0.437030 (Iteration 3801 / 4900) loss: 0.510435 (Iteration 3901 / 4900) loss: 0.735819 (Epoch 8 / 10) train acc: 0.835000; val_acc: 0.678000 (Iteration 4001 / 4900) loss: 0.559391 (Iteration 4101 / 4900) loss: 0.451097 (Iteration 4201 / 4900) loss: 0.609639 (Iteration 4301 / 4900) loss: 0.549392 (Iteration 4401 / 4900) loss: 0.704371 (Epoch 9 / 10) train acc: 0.821000; val_acc: 0.682000 (Iteration 4501 / 4900) loss: 0.642858 (Iteration 4601 / 4900) loss: 0.502988 (Iteration 4701 / 4900) loss: 0.418752 (Iteration 4801 / 4900) loss: 0.306134 (Epoch 10 / 10) train acc: 0.842000; val_acc: 0.683000 0.683 print plt.subplot(2, 1, 1) plt.title('Training loss') plt.plot(solver.loss_history, 'o') plt.xlabel('Iteration')plt.subplot(2, 1, 2) plt.title('Accuracy') plt.plot(solver.train_acc_history, '-o', label='train') plt.plot(solver.val_acc_history, '-o', label='val') plt.plot([0.5] * len(solver.val_acc_history), 'k--') plt.xlabel('Epoch') plt.legend(loc='lower right') plt.gcf().set_size_inches(15, 12) plt.show()

Extra Credit Description

If you implement any additional features for extra credit, clearly describe them here with pointers to any code in this or other files if applicable.

總結

以上是生活随笔為你收集整理的cs231n:assignment2——Q4: ConvNet on CIFAR-10的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

在线a亚洲视频播放在线观看 | 国产av久久久久精东av | 国产免费久久久久久无码 | 老子影院午夜精品无码 | 国内少妇偷人精品视频免费 | 亚洲精品国产品国语在线观看 | 丁香花在线影院观看在线播放 | 99久久人妻精品免费二区 | 欧美刺激性大交 | 午夜丰满少妇性开放视频 | 性开放的女人aaa片 | 一本色道久久综合亚洲精品不卡 | 亚洲成av人片在线观看无码不卡 | 国产欧美熟妇另类久久久 | 熟妇人妻无码xxx视频 | 精品无码国产自产拍在线观看蜜 | 思思久久99热只有频精品66 | 国产精品第一区揄拍无码 | 色综合天天综合狠狠爱 | 亚洲日本一区二区三区在线 | 在线看片无码永久免费视频 | 内射爽无广熟女亚洲 | 精品日本一区二区三区在线观看 | 久久熟妇人妻午夜寂寞影院 | 未满成年国产在线观看 | 国产精品福利视频导航 | 精品日本一区二区三区在线观看 | 久久国产精品萌白酱免费 | 18无码粉嫩小泬无套在线观看 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲乱亚洲乱妇50p | 成人精品视频一区二区 | 爆乳一区二区三区无码 | 国产精品无码成人午夜电影 | 欧美人与禽猛交狂配 | 无码国产乱人伦偷精品视频 | 在线播放亚洲第一字幕 | 麻豆精品国产精华精华液好用吗 | 天天做天天爱天天爽综合网 | 久久国语露脸国产精品电影 | 久久国语露脸国产精品电影 | 欧美成人高清在线播放 | 久久久国产一区二区三区 | 国产成人一区二区三区别 | 色婷婷久久一区二区三区麻豆 | 午夜精品一区二区三区的区别 | 曰本女人与公拘交酡免费视频 | 麻豆国产人妻欲求不满 | 午夜理论片yy44880影院 | 精品国产一区二区三区四区 | 丝袜美腿亚洲一区二区 | 久久99精品久久久久久动态图 | 国产9 9在线 | 中文 | 国产97人人超碰caoprom | 国色天香社区在线视频 | 最近中文2019字幕第二页 | 亚洲中文字幕在线无码一区二区 | 久久综合香蕉国产蜜臀av | 丰满肥臀大屁股熟妇激情视频 | 久久综合久久自在自线精品自 | 精品人人妻人人澡人人爽人人 | 国产亚洲精品久久久久久大师 | 精品久久久无码中文字幕 | 天天摸天天透天天添 | 一本久道高清无码视频 | 亚洲成av人在线观看网址 | 国产色在线 | 国产 | 玩弄少妇高潮ⅹxxxyw | 亚洲欧美日韩国产精品一区二区 | 亚洲国产精华液网站w | 国产精品人人爽人人做我的可爱 | 国产疯狂伦交大片 | 无码成人精品区在线观看 | 丰满少妇女裸体bbw | 亚洲日韩av一区二区三区四区 | 国产精品人人爽人人做我的可爱 | 国产内射老熟女aaaa | 久久成人a毛片免费观看网站 | 欧美 亚洲 国产 另类 | 国产两女互慰高潮视频在线观看 | 一个人免费观看的www视频 | 国产精品亚洲综合色区韩国 | 精品国产av色一区二区深夜久久 | 欧美日韩一区二区三区自拍 | 无码av岛国片在线播放 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 欧美阿v高清资源不卡在线播放 | 亚洲欧美精品aaaaaa片 | 日本高清一区免费中文视频 | 激情内射亚州一区二区三区爱妻 | 久久久久免费精品国产 | av无码电影一区二区三区 | 国产成人无码区免费内射一片色欲 | 成人无码精品一区二区三区 | 精品 日韩 国产 欧美 视频 | 亚洲 激情 小说 另类 欧美 | 大地资源网第二页免费观看 | 亚洲日本va中文字幕 | www国产亚洲精品久久网站 | 亚洲精品久久久久中文第一幕 | 久久99热只有频精品8 | 亚洲乱码国产乱码精品精 | 在线看片无码永久免费视频 | 国产成人综合美国十次 | 亚洲日本一区二区三区在线 | 成年女人永久免费看片 | 国产精品久久久久影院嫩草 | 色婷婷综合激情综在线播放 | 国产乱码精品一品二品 | 日本一卡二卡不卡视频查询 | 玩弄少妇高潮ⅹxxxyw | 亚洲欧洲中文日韩av乱码 | 在线a亚洲视频播放在线观看 | 人妻中文无码久热丝袜 | 欧美精品免费观看二区 | 亚洲精品无码人妻无码 | 女人和拘做爰正片视频 | 无码人妻黑人中文字幕 | 无码播放一区二区三区 | 67194成是人免费无码 | 国产精品人妻一区二区三区四 | 国产尤物精品视频 | 国产精品资源一区二区 | 精品 日韩 国产 欧美 视频 | 亚洲成av人片在线观看无码不卡 | 色婷婷综合激情综在线播放 | 欧美第一黄网免费网站 | 宝宝好涨水快流出来免费视频 | 一本久道久久综合狠狠爱 | 国产va免费精品观看 | 国内丰满熟女出轨videos | 东北女人啪啪对白 | 又大又硬又爽免费视频 | 天天躁日日躁狠狠躁免费麻豆 | 特黄特色大片免费播放器图片 | 中文字幕 人妻熟女 | 国产情侣作爱视频免费观看 | 成人片黄网站色大片免费观看 | 中文字幕乱码人妻无码久久 | 国产成人无码一二三区视频 | 亚洲精品鲁一鲁一区二区三区 | 中文字幕人妻丝袜二区 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品国偷拍自产在线观看蜜桃 | 中文字幕精品av一区二区五区 | 国产又爽又猛又粗的视频a片 | 国产亚洲tv在线观看 | 欧美喷潮久久久xxxxx | 亚洲熟妇自偷自拍另类 | 精品人妻人人做人人爽夜夜爽 | 精品国产麻豆免费人成网站 | 图片区 小说区 区 亚洲五月 | 国产成人精品必看 | 国产午夜福利亚洲第一 | 中文字幕+乱码+中文字幕一区 | 波多野结衣 黑人 | 久久久精品欧美一区二区免费 | 亚洲中文字幕无码中字 | 久久综合久久自在自线精品自 | 国产亚洲tv在线观看 | 最近中文2019字幕第二页 | 久久精品国产日本波多野结衣 | 欧美人与牲动交xxxx | √天堂中文官网8在线 | 欧美野外疯狂做受xxxx高潮 | 精品人妻人人做人人爽夜夜爽 | 丰满人妻精品国产99aⅴ | 性生交大片免费看女人按摩摩 | 亚洲色www成人永久网址 | 成人欧美一区二区三区黑人免费 | 精品国产国产综合精品 | 欧美 亚洲 国产 另类 | 无码毛片视频一区二区本码 | 丰满岳乱妇在线观看中字无码 | 亚洲熟女一区二区三区 | 久久久久久a亚洲欧洲av冫 | 狠狠躁日日躁夜夜躁2020 | 扒开双腿吃奶呻吟做受视频 | 午夜肉伦伦影院 | 奇米影视7777久久精品人人爽 | 亚洲综合无码一区二区三区 | 乱人伦人妻中文字幕无码久久网 | 成在人线av无码免费 | 成年美女黄网站色大免费全看 | 欧美阿v高清资源不卡在线播放 | 日本大乳高潮视频在线观看 | 国产精品欧美成人 | 99riav国产精品视频 | 曰本女人与公拘交酡免费视频 | 欧美老熟妇乱xxxxx | 亚洲成熟女人毛毛耸耸多 | 无码国模国产在线观看 | 露脸叫床粗话东北少妇 | 国精产品一区二区三区 | 久久综合色之久久综合 | 动漫av一区二区在线观看 | 亚洲精品综合五月久久小说 | 婷婷五月综合激情中文字幕 | 欧美人与禽zoz0性伦交 | 中国女人内谢69xxxxxa片 | 内射欧美老妇wbb | 精品无码av一区二区三区 | 超碰97人人射妻 | 精品人妻人人做人人爽夜夜爽 | 妺妺窝人体色www在线小说 | 精品 日韩 国产 欧美 视频 | 中文字幕无码免费久久9一区9 | 97夜夜澡人人爽人人喊中国片 | 久久精品中文字幕一区 | 一二三四在线观看免费视频 | 亚洲国产精品成人久久蜜臀 | 亚洲日韩av一区二区三区中文 | 伊人久久大香线蕉av一区二区 | 久久久精品国产sm最大网站 | 国产精品久久久久无码av色戒 | 一二三四在线观看免费视频 | 色噜噜亚洲男人的天堂 | 在线精品国产一区二区三区 | 亚洲狠狠色丁香婷婷综合 | 亚洲精品午夜国产va久久成人 | 夜先锋av资源网站 | 欧美精品免费观看二区 | 国产麻豆精品一区二区三区v视界 | 日韩人妻少妇一区二区三区 | 东京热男人av天堂 | 波多野结衣av一区二区全免费观看 | 久久国语露脸国产精品电影 | 无码人妻出轨黑人中文字幕 | 日韩精品乱码av一区二区 | 性色欲情网站iwww九文堂 | 少妇人妻av毛片在线看 | 欧美性生交xxxxx久久久 | 波多野结衣乳巨码无在线观看 | 狂野欧美激情性xxxx | 亚洲国产精品无码一区二区三区 | 亚洲自偷自偷在线制服 | 人人妻人人藻人人爽欧美一区 | 99精品无人区乱码1区2区3区 | 特黄特色大片免费播放器图片 | 国产精品视频免费播放 | 色狠狠av一区二区三区 | 成人亚洲精品久久久久 | 亚洲欧美国产精品久久 | 国产在线aaa片一区二区99 | 色窝窝无码一区二区三区色欲 | 国产舌乚八伦偷品w中 | 亚洲精品久久久久avwww潮水 | 精品久久久久久亚洲精品 | 67194成是人免费无码 | 欧美兽交xxxx×视频 | 美女扒开屁股让男人桶 | 日韩精品久久久肉伦网站 | √8天堂资源地址中文在线 | 白嫩日本少妇做爰 | a在线观看免费网站大全 | 国产做国产爱免费视频 | 久久久久久a亚洲欧洲av冫 | 人妻夜夜爽天天爽三区 | 国产福利视频一区二区 | 中文字幕乱码中文乱码51精品 | 人妻插b视频一区二区三区 | 亚洲国产精品成人久久蜜臀 | 亚洲中文字幕乱码av波多ji | 日本精品人妻无码免费大全 | 亚洲欧洲日本综合aⅴ在线 | 久久久久亚洲精品男人的天堂 | 国产又爽又黄又刺激的视频 | 色综合久久久无码中文字幕 | 久久久精品欧美一区二区免费 | 国产内射老熟女aaaa | 日本在线高清不卡免费播放 | 午夜精品久久久久久久久 | 乱人伦人妻中文字幕无码久久网 | 久久aⅴ免费观看 | 超碰97人人做人人爱少妇 | 亚洲中文字幕va福利 | 无码人妻av免费一区二区三区 | 国产人妻人伦精品 | 欧美老人巨大xxxx做受 | aⅴ在线视频男人的天堂 | 中文无码成人免费视频在线观看 | 人妻与老人中文字幕 | 精品一二三区久久aaa片 | 国产精品无码mv在线观看 | 东京无码熟妇人妻av在线网址 | 黄网在线观看免费网站 | www国产精品内射老师 | 少女韩国电视剧在线观看完整 | www一区二区www免费 | 老头边吃奶边弄进去呻吟 | 国产精品va在线观看无码 | 亚洲精品国偷拍自产在线麻豆 | 日韩欧美中文字幕在线三区 | 欧美日韩久久久精品a片 | 精品人妻人人做人人爽 | 国产偷国产偷精品高清尤物 | 国产人妻精品一区二区三区 | 精品久久久无码人妻字幂 | 久久人人爽人人爽人人片av高清 | 成年美女黄网站色大免费全看 | 国产精品视频免费播放 | 天堂在线观看www | 强辱丰满人妻hd中文字幕 | 国产午夜无码精品免费看 | 精品人妻人人做人人爽 | 久久午夜无码鲁丝片 | 国产亚洲视频中文字幕97精品 | 水蜜桃亚洲一二三四在线 | 荡女精品导航 | 超碰97人人做人人爱少妇 | yw尤物av无码国产在线观看 | 欧美黑人巨大xxxxx | 人人妻人人澡人人爽精品欧美 | 久久精品国产大片免费观看 | 人妻中文无码久热丝袜 | 国产成人无码a区在线观看视频app | 丰满人妻被黑人猛烈进入 | 亚洲欧美色中文字幕在线 | 精品久久久无码人妻字幂 | 亚洲人成影院在线无码按摩店 | 国产成人无码专区 | 久在线观看福利视频 | 欧美国产亚洲日韩在线二区 | 精品 日韩 国产 欧美 视频 | 亚洲欧美国产精品专区久久 | 综合网日日天干夜夜久久 | v一区无码内射国产 | 又大又紧又粉嫩18p少妇 | 少妇性荡欲午夜性开放视频剧场 | 色偷偷人人澡人人爽人人模 | 中文字幕精品av一区二区五区 | 男人和女人高潮免费网站 | 日本乱偷人妻中文字幕 | 日日摸日日碰夜夜爽av | 精品厕所偷拍各类美女tp嘘嘘 | 成熟女人特级毛片www免费 | 欧美freesex黑人又粗又大 | 国产精品毛片一区二区 | 人人妻人人藻人人爽欧美一区 | 水蜜桃色314在线观看 | 久久综合狠狠综合久久综合88 | 国产一区二区三区四区五区加勒比 | 国产亚洲欧美日韩亚洲中文色 | 超碰97人人做人人爱少妇 | 欧美阿v高清资源不卡在线播放 | 亚洲国产日韩a在线播放 | 伊在人天堂亚洲香蕉精品区 | 男女超爽视频免费播放 | 国产在线无码精品电影网 | 午夜精品久久久内射近拍高清 | 精品国偷自产在线视频 | 亚洲a无码综合a国产av中文 | 免费看少妇作爱视频 | 女人色极品影院 | 在线播放免费人成毛片乱码 | 国产成人无码av片在线观看不卡 | 18精品久久久无码午夜福利 | 欧美熟妇另类久久久久久多毛 | 亚洲精品国产a久久久久久 | 无码国产色欲xxxxx视频 | 人人妻人人澡人人爽人人精品浪潮 | 色老头在线一区二区三区 | 精品厕所偷拍各类美女tp嘘嘘 | 国产精品99爱免费视频 | 精品欧洲av无码一区二区三区 | 婷婷综合久久中文字幕蜜桃三电影 | 欧美老妇与禽交 | yw尤物av无码国产在线观看 | 疯狂三人交性欧美 | 亚洲综合色区中文字幕 | 麻豆国产人妻欲求不满谁演的 | 丰满诱人的人妻3 | 亚洲色www成人永久网址 | 日本精品久久久久中文字幕 | 亚洲国产av美女网站 | 一本久久a久久精品vr综合 | 国产熟妇另类久久久久 | 无套内谢的新婚少妇国语播放 | 熟妇激情内射com | 国产美女极度色诱视频www | 色婷婷综合激情综在线播放 | 国产成人一区二区三区在线观看 | 国产激情精品一区二区三区 | 国精产品一品二品国精品69xx | 98国产精品综合一区二区三区 | 婷婷五月综合激情中文字幕 | 国产无遮挡又黄又爽免费视频 | 嫩b人妻精品一区二区三区 | 大地资源网第二页免费观看 | 131美女爱做视频 | 中文字幕 亚洲精品 第1页 | 又湿又紧又大又爽a视频国产 | 377p欧洲日本亚洲大胆 | 美女毛片一区二区三区四区 | 久久99精品国产麻豆蜜芽 | 四虎国产精品一区二区 | 男人扒开女人内裤强吻桶进去 | 欧洲欧美人成视频在线 | 久久精品视频在线看15 | 色欲久久久天天天综合网精品 | 国产精品爱久久久久久久 | 撕开奶罩揉吮奶头视频 | 青草视频在线播放 | 国产精品久久久久久久影院 | 亚洲区欧美区综合区自拍区 | 高中生自慰www网站 | 国产情侣作爱视频免费观看 | 又粗又大又硬毛片免费看 | 久久久久成人精品免费播放动漫 | 精品国产一区二区三区四区在线看 | 国产精品沙发午睡系列 | 国产精品美女久久久久av爽李琼 | 国产麻豆精品一区二区三区v视界 | 人人妻人人澡人人爽人人精品浪潮 | 国产在热线精品视频 | 国产极品美女高潮无套在线观看 | 丝袜 中出 制服 人妻 美腿 | 色一情一乱一伦 | 蜜桃臀无码内射一区二区三区 | 久久精品国产一区二区三区 | 俄罗斯老熟妇色xxxx | 日本www一道久久久免费榴莲 | 免费国产黄网站在线观看 | 一本大道久久东京热无码av | 国产片av国语在线观看 | 国产偷国产偷精品高清尤物 | 亚洲伊人久久精品影院 | 成年美女黄网站色大免费视频 | 男人的天堂av网站 | 成人无码视频在线观看网站 | 国产激情艳情在线看视频 | 日本在线高清不卡免费播放 | 午夜不卡av免费 一本久久a久久精品vr综合 | 亚洲另类伦春色综合小说 | 亚洲小说图区综合在线 | 粗大的内捧猛烈进出视频 | 国产精品亚洲专区无码不卡 | 天天躁日日躁狠狠躁免费麻豆 | 日韩成人一区二区三区在线观看 | 精品日本一区二区三区在线观看 | 亚洲色大成网站www国产 | 无遮挡啪啪摇乳动态图 | 国产精品对白交换视频 | 一区二区传媒有限公司 | 欧美zoozzooz性欧美 | 精品久久久久久亚洲精品 | 免费播放一区二区三区 | 久久亚洲国产成人精品性色 | 国产午夜视频在线观看 | 精品国偷自产在线视频 | 欧美丰满熟妇xxxx | 精品国产国产综合精品 | 一本久久a久久精品vr综合 | 丰满肥臀大屁股熟妇激情视频 | 欧美性生交活xxxxxdddd | 国语自产偷拍精品视频偷 | 在线天堂新版最新版在线8 | 亲嘴扒胸摸屁股激烈网站 | 欧美精品在线观看 | 亚洲熟妇自偷自拍另类 | 国产亚洲精品久久久闺蜜 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲精品综合一区二区三区在线 | 精品亚洲成av人在线观看 | 女人被爽到呻吟gif动态图视看 | 婷婷五月综合缴情在线视频 | 久久久av男人的天堂 | 88国产精品欧美一区二区三区 | 东京一本一道一二三区 | 久久久久久久久蜜桃 | yw尤物av无码国产在线观看 | 亚洲熟妇色xxxxx欧美老妇 | 一个人免费观看的www视频 | 久久久中文久久久无码 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 无码av免费一区二区三区试看 | 国产精品人妻一区二区三区四 | 中文字幕乱码中文乱码51精品 | 国产亚洲精品久久久久久久久动漫 | 一本色道久久综合亚洲精品不卡 | 51国偷自产一区二区三区 | 日韩精品无码一区二区中文字幕 | 欧美35页视频在线观看 | 性欧美大战久久久久久久 | 最新国产乱人伦偷精品免费网站 | 亚洲精品鲁一鲁一区二区三区 | 国产成人无码av在线影院 | 性欧美牲交在线视频 | 久久国产36精品色熟妇 | 偷窥日本少妇撒尿chinese | 激情国产av做激情国产爱 | 欧美日韩亚洲国产精品 | 亚洲中文字幕av在天堂 | 国产激情一区二区三区 | 97夜夜澡人人爽人人喊中国片 | 荫蒂添的好舒服视频囗交 | 天海翼激烈高潮到腰振不止 | 亚拍精品一区二区三区探花 | 欧美黑人性暴力猛交喷水 | 国产真人无遮挡作爱免费视频 | 真人与拘做受免费视频一 | 久在线观看福利视频 | 日日麻批免费40分钟无码 | 国产免费久久久久久无码 | 九月婷婷人人澡人人添人人爽 | 日韩在线不卡免费视频一区 | 熟妇激情内射com | 亚洲日本在线电影 | 香港三级日本三级妇三级 | 99国产精品白浆在线观看免费 | 亚洲精品久久久久久久久久久 | 老太婆性杂交欧美肥老太 | 欧美一区二区三区视频在线观看 | 波多野结衣aⅴ在线 | 成人av无码一区二区三区 | 久久精品人人做人人综合试看 | www国产亚洲精品久久网站 | 国产内射老熟女aaaa | 亚洲综合色区中文字幕 | 久久精品国产99精品亚洲 | 国产在线精品一区二区高清不卡 | 国产无套粉嫩白浆在线 | 国产艳妇av在线观看果冻传媒 | 双乳奶水饱满少妇呻吟 | 狂野欧美性猛xxxx乱大交 | 亚洲男人av香蕉爽爽爽爽 | 亚洲人成人无码网www国产 | 99精品视频在线观看免费 | 亚洲自偷精品视频自拍 | 亚洲色欲久久久综合网东京热 | 在线а√天堂中文官网 | 久久久久久国产精品无码下载 | 特级做a爰片毛片免费69 | 亚洲欧洲日本综合aⅴ在线 | 俺去俺来也www色官网 | 国产极品视觉盛宴 | 夫妻免费无码v看片 | 国产激情艳情在线看视频 | 色五月五月丁香亚洲综合网 | 中文字幕av日韩精品一区二区 | 精品乱子伦一区二区三区 | 青青青手机频在线观看 | 亚洲国产精品久久人人爱 | 成人女人看片免费视频放人 | 中文字幕乱码人妻二区三区 | 亚洲熟女一区二区三区 | 欧美人妻一区二区三区 | 免费人成网站视频在线观看 | 国产成人av免费观看 | 澳门永久av免费网站 | 亚洲中文字幕成人无码 | 国产精品久久国产三级国 | 亚洲の无码国产の无码影院 | 天堂久久天堂av色综合 | 精品国产一区二区三区四区在线看 | 亚洲区欧美区综合区自拍区 | 天天做天天爱天天爽综合网 | 日本精品少妇一区二区三区 | 亚洲无人区午夜福利码高清完整版 | 国产午夜福利亚洲第一 | 亚洲成av人影院在线观看 | 国产精品久久精品三级 | 婷婷色婷婷开心五月四房播播 | 亚洲精品久久久久久一区二区 | 国产精品久久国产三级国 | 亚洲 a v无 码免 费 成 人 a v | 国产激情综合五月久久 | 人妻无码αv中文字幕久久琪琪布 | 精品国产aⅴ无码一区二区 | 久久久精品人妻久久影视 | 俺去俺来也在线www色官网 | av在线亚洲欧洲日产一区二区 | 久久亚洲中文字幕精品一区 | 亚洲国产欧美国产综合一区 | 白嫩日本少妇做爰 | 久久精品丝袜高跟鞋 | 色噜噜亚洲男人的天堂 | 中文毛片无遮挡高清免费 | 欧美人与动性行为视频 | 激情内射亚州一区二区三区爱妻 | 久久精品成人欧美大片 | 亚洲色欲久久久综合网东京热 | 激情内射日本一区二区三区 | 毛片内射-百度 | 国产熟妇高潮叫床视频播放 | 人妻天天爽夜夜爽一区二区 | 中文字幕 亚洲精品 第1页 | 亚洲精品久久久久久久久久久 | 亚洲精品欧美二区三区中文字幕 | 极品嫩模高潮叫床 | 人人妻人人藻人人爽欧美一区 | 午夜丰满少妇性开放视频 | 少妇久久久久久人妻无码 | 亚洲中文字幕无码中文字在线 | 亚洲伊人久久精品影院 | 国产精品香蕉在线观看 | 欧美日本免费一区二区三区 | 天海翼激烈高潮到腰振不止 | 色偷偷人人澡人人爽人人模 | 天堂а√在线地址中文在线 | 日韩精品a片一区二区三区妖精 | 一本久久a久久精品vr综合 | 狂野欧美性猛xxxx乱大交 | 天天av天天av天天透 | 精品国产麻豆免费人成网站 | 成人av无码一区二区三区 | 国产香蕉尹人综合在线观看 | 婷婷色婷婷开心五月四房播播 | 亚洲精品鲁一鲁一区二区三区 | 偷窥日本少妇撒尿chinese | 又粗又大又硬毛片免费看 | 成人动漫在线观看 | 精品无码国产一区二区三区av | 99久久99久久免费精品蜜桃 | 无码人妻精品一区二区三区不卡 | 色欲综合久久中文字幕网 | 免费无码的av片在线观看 | 国产精品久久久久久亚洲影视内衣 | 亚洲精品无码国产 | 亚洲天堂2017无码中文 | 天下第一社区视频www日本 | 清纯唯美经典一区二区 | 国产乡下妇女做爰 | 亚洲色偷偷偷综合网 | 午夜丰满少妇性开放视频 | 亚洲日韩一区二区三区 | 精品国产青草久久久久福利 | 好男人www社区 | 久久久久久av无码免费看大片 | 四虎影视成人永久免费观看视频 | 精品久久久久久亚洲精品 | 久久久久免费看成人影片 | 久久亚洲中文字幕无码 | 最近免费中文字幕中文高清百度 | 亚洲热妇无码av在线播放 | 欧美人与禽zoz0性伦交 | 一本一道久久综合久久 | 2019午夜福利不卡片在线 | 精品夜夜澡人妻无码av蜜桃 | 久久精品国产99久久6动漫 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久久熟妇人妻午夜寂寞影院 | 少妇性l交大片 | 国产亚洲精品久久久久久大师 | 中文字幕av日韩精品一区二区 | 久久久久se色偷偷亚洲精品av | 天堂а√在线中文在线 | 久久精品国产精品国产精品污 | 国产热a欧美热a在线视频 | 亚洲欧洲无卡二区视頻 | 丝袜人妻一区二区三区 | 欧美35页视频在线观看 | 激情人妻另类人妻伦 | 亚洲成a人片在线观看无码 | 国产精品久久精品三级 | 精品无码国产一区二区三区av | 免费乱码人妻系列无码专区 | 午夜福利一区二区三区在线观看 | 又黄又爽又色的视频 | 国产成人精品久久亚洲高清不卡 | 天堂在线观看www | 无码国产乱人伦偷精品视频 | 中文字幕+乱码+中文字幕一区 | 精品无码一区二区三区的天堂 | 伊人久久大香线蕉亚洲 | 久久久精品国产sm最大网站 | 久热国产vs视频在线观看 | 狠狠综合久久久久综合网 | 国产精品欧美成人 | 亚洲成av人片在线观看无码不卡 | 亚洲中文字幕成人无码 | 一本久久a久久精品亚洲 | 久久久精品成人免费观看 | 亚洲精品中文字幕乱码 | 日本熟妇人妻xxxxx人hd | 成人一区二区免费视频 | 一个人看的视频www在线 | 老子影院午夜伦不卡 | 中文字幕人妻无码一夲道 | 久久精品国产大片免费观看 | 久久综合给久久狠狠97色 | 国产免费久久精品国产传媒 | 午夜福利试看120秒体验区 | 激情亚洲一区国产精品 | 麻豆国产97在线 | 欧洲 | 精品无码成人片一区二区98 | 丁香花在线影院观看在线播放 | 国产特级毛片aaaaaa高潮流水 | 久久亚洲a片com人成 | 日韩精品无码一本二本三本色 | 2020久久香蕉国产线看观看 | 国产黑色丝袜在线播放 | 水蜜桃av无码 | 国产成人精品三级麻豆 | 成人无码精品1区2区3区免费看 | 水蜜桃亚洲一二三四在线 | 久久人人爽人人爽人人片ⅴ | 美女张开腿让人桶 | 亚洲精品一区二区三区在线观看 | 疯狂三人交性欧美 | 国产午夜亚洲精品不卡 | 久激情内射婷内射蜜桃人妖 | 久久久精品456亚洲影院 | 国产人成高清在线视频99最全资源 | 免费男性肉肉影院 | 乱中年女人伦av三区 | 国产av无码专区亚洲awww | 中文字幕av无码一区二区三区电影 | yw尤物av无码国产在线观看 | 天天av天天av天天透 | 亚洲男人av天堂午夜在 | 国产99久久精品一区二区 | 亚洲熟女一区二区三区 | 国产激情无码一区二区app | 欧美人与禽zoz0性伦交 | 午夜男女很黄的视频 | 久久综合久久自在自线精品自 | www成人国产高清内射 | 亚洲国产精品无码一区二区三区 | 亚洲熟妇自偷自拍另类 | 无码av岛国片在线播放 | 国产无套内射久久久国产 | 极品嫩模高潮叫床 | 麻豆国产人妻欲求不满 | 毛片内射-百度 | 美女毛片一区二区三区四区 | 免费无码肉片在线观看 | 国产精品亚洲专区无码不卡 | 99久久久无码国产aaa精品 | 性色欲网站人妻丰满中文久久不卡 | 麻豆成人精品国产免费 | 欧美自拍另类欧美综合图片区 | 无码人妻av免费一区二区三区 | 麻豆成人精品国产免费 | 精品久久久久久人妻无码中文字幕 | 人人超人人超碰超国产 | 亚洲成a人片在线观看日本 | 国产精品久久精品三级 | 理论片87福利理论电影 | 无套内射视频囯产 | 天天综合网天天综合色 | 丰满人妻一区二区三区免费视频 | 水蜜桃色314在线观看 | 亚洲欧美国产精品久久 | 奇米影视7777久久精品 | 狠狠色欧美亚洲狠狠色www | 男女猛烈xx00免费视频试看 | 国产亚洲精品久久久久久大师 | 搡女人真爽免费视频大全 | 久久国产36精品色熟妇 | 亚洲一区二区三区在线观看网站 | 色婷婷久久一区二区三区麻豆 | 国产精品igao视频网 | 女人被男人爽到呻吟的视频 | 国产乱人伦av在线无码 | 精品偷拍一区二区三区在线看 | 国产深夜福利视频在线 | 亚洲熟妇色xxxxx欧美老妇 | 性欧美牲交xxxxx视频 | 图片小说视频一区二区 | 小泽玛莉亚一区二区视频在线 | 亚洲精品国偷拍自产在线观看蜜桃 | 久久五月精品中文字幕 | 在线欧美精品一区二区三区 | 久久久久久九九精品久 | 日本va欧美va欧美va精品 | 免费观看黄网站 | 国模大胆一区二区三区 | 久久久无码中文字幕久... | 97夜夜澡人人爽人人喊中国片 | 国产片av国语在线观看 | 欧美黑人乱大交 | 精品国产av色一区二区深夜久久 | 俺去俺来也在线www色官网 | 激情内射亚州一区二区三区爱妻 | 午夜精品一区二区三区在线观看 | 国产99久久精品一区二区 | 精品国产成人一区二区三区 | 亚洲人成影院在线无码按摩店 | 九九热爱视频精品 | 国产亚洲人成在线播放 | 国产精品-区区久久久狼 | 成年女人永久免费看片 | 强奷人妻日本中文字幕 | 内射巨臀欧美在线视频 | www一区二区www免费 | 亚洲国产午夜精品理论片 | 国产精品久久精品三级 | 131美女爱做视频 | 内射爽无广熟女亚洲 | 成人av无码一区二区三区 | 激情亚洲一区国产精品 | 久久久国产精品无码免费专区 | 成人免费视频一区二区 | 18禁黄网站男男禁片免费观看 | 国产成人无码专区 | 亚洲国产av精品一区二区蜜芽 | 99久久无码一区人妻 | 300部国产真实乱 | 国产热a欧美热a在线视频 | 九九热爱视频精品 | 丰腴饱满的极品熟妇 | 色婷婷综合中文久久一本 | 亚洲精品鲁一鲁一区二区三区 | 成人精品一区二区三区中文字幕 | av无码电影一区二区三区 | 国产又爽又猛又粗的视频a片 | 欧美 亚洲 国产 另类 | 伊人久久大香线蕉亚洲 | 久青草影院在线观看国产 | 久久久婷婷五月亚洲97号色 | 精品人人妻人人澡人人爽人人 | 久久精品一区二区三区四区 | 免费人成在线视频无码 | 97色伦图片97综合影院 | 中文字幕日韩精品一区二区三区 | 国产做国产爱免费视频 | 国产人成高清在线视频99最全资源 | 国产亚洲精品久久久久久大师 | 欧美国产日韩久久mv | 妺妺窝人体色www婷婷 | 国内揄拍国内精品少妇国语 | 国产人妻精品一区二区三区不卡 | 精品国产av色一区二区深夜久久 | 丰满少妇人妻久久久久久 | 国产又爽又猛又粗的视频a片 | 东京热男人av天堂 | 无码av最新清无码专区吞精 | 亚洲国产精品成人久久蜜臀 | 97夜夜澡人人爽人人喊中国片 | 亚洲国产综合无码一区 | 亚洲国产精品久久人人爱 | 国产精品无码久久av | 俺去俺来也在线www色官网 | 欧美精品在线观看 | 国产精品人人妻人人爽 | 久久国内精品自在自线 | 中文精品久久久久人妻不卡 | 成人无码影片精品久久久 | 午夜男女很黄的视频 | 沈阳熟女露脸对白视频 | 樱花草在线社区www | 欧美老妇交乱视频在线观看 | 乱人伦人妻中文字幕无码 | 国产精品美女久久久 | 亚洲第一网站男人都懂 | 牛和人交xxxx欧美 | 亚洲欧洲中文日韩av乱码 | 成人免费视频在线观看 | 国产熟女一区二区三区四区五区 | 久久 国产 尿 小便 嘘嘘 | 国产精品美女久久久网av | 98国产精品综合一区二区三区 | 欧美日本免费一区二区三区 | 男人和女人高潮免费网站 | 亚洲成色www久久网站 | 国产欧美熟妇另类久久久 | 国产精品二区一区二区aⅴ污介绍 | 国精产品一品二品国精品69xx | 少妇一晚三次一区二区三区 | 久久精品中文字幕一区 | 熟妇人妻中文av无码 | 中文精品久久久久人妻不卡 | 丰满人妻翻云覆雨呻吟视频 | 最近的中文字幕在线看视频 | 亚洲午夜福利在线观看 | 国产精品无码一区二区桃花视频 | 色综合久久久久综合一本到桃花网 | 老熟妇乱子伦牲交视频 | 婷婷综合久久中文字幕蜜桃三电影 | 无码福利日韩神码福利片 | 中文字幕无码av激情不卡 | 国产精品资源一区二区 | 亚洲色偷偷偷综合网 | 国产性生交xxxxx无码 | 无码av岛国片在线播放 | 中文字幕av无码一区二区三区电影 | 极品尤物被啪到呻吟喷水 | 中国女人内谢69xxxxxa片 | 又大又紧又粉嫩18p少妇 | 中文字幕无码av波多野吉衣 | 中文字幕 亚洲精品 第1页 | 18禁黄网站男男禁片免费观看 | 精品偷拍一区二区三区在线看 | 在线成人www免费观看视频 | 国产精品人人爽人人做我的可爱 | 日日摸天天摸爽爽狠狠97 | 精品夜夜澡人妻无码av蜜桃 | 少妇无码一区二区二三区 | 久久无码人妻影院 | 午夜熟女插插xx免费视频 | 奇米影视888欧美在线观看 | 国产精品鲁鲁鲁 | 亚洲熟妇自偷自拍另类 | 色老头在线一区二区三区 | 成人性做爰aaa片免费看 | 伊人久久大香线蕉亚洲 | ass日本丰满熟妇pics | 中文毛片无遮挡高清免费 | 色诱久久久久综合网ywww | 国产xxx69麻豆国语对白 | 午夜福利不卡在线视频 | 久久99热只有频精品8 | 18精品久久久无码午夜福利 | 欧美日韩一区二区免费视频 | 黑人巨大精品欧美一区二区 | 大肉大捧一进一出好爽视频 | 女人被爽到呻吟gif动态图视看 | 国产 浪潮av性色四虎 | 久久亚洲a片com人成 | 亚洲欧美色中文字幕在线 | 无码吃奶揉捏奶头高潮视频 | 亚洲 a v无 码免 费 成 人 a v | 国内揄拍国内精品人妻 | 精品无码国产一区二区三区av | 色五月丁香五月综合五月 | 欧美丰满熟妇xxxx性ppx人交 | 又湿又紧又大又爽a视频国产 | 老头边吃奶边弄进去呻吟 | 好男人社区资源 | 男人扒开女人内裤强吻桶进去 | 亚洲爆乳大丰满无码专区 | 麻豆国产人妻欲求不满谁演的 | www国产亚洲精品久久网站 | 成人欧美一区二区三区 | 妺妺窝人体色www婷婷 | 精品国产一区二区三区四区在线看 | 国产激情综合五月久久 | 97夜夜澡人人双人人人喊 | 国产xxx69麻豆国语对白 | 欧美国产日韩久久mv | 欧美黑人乱大交 | 国产亚洲精品久久久久久国模美 | 狠狠色噜噜狠狠狠7777奇米 | 日本一卡2卡3卡四卡精品网站 | 日韩亚洲欧美精品综合 | 无码人妻丰满熟妇区毛片18 | 东京无码熟妇人妻av在线网址 | 国产成人无码一二三区视频 | 一个人免费观看的www视频 | 日韩亚洲欧美中文高清在线 | 国产精品99爱免费视频 | 亚洲国产精品毛片av不卡在线 | 欧美freesex黑人又粗又大 | 精品厕所偷拍各类美女tp嘘嘘 | 最近中文2019字幕第二页 | 欧美性生交xxxxx久久久 | 亚洲精品中文字幕久久久久 | 精品乱子伦一区二区三区 | 欧美人与动性行为视频 | 亚洲阿v天堂在线 | 国产麻豆精品精东影业av网站 | 成人欧美一区二区三区 | 无码福利日韩神码福利片 | 中文字幕无码av波多野吉衣 | 欧美日韩色另类综合 | 精品久久久久久人妻无码中文字幕 | 欧美老熟妇乱xxxxx | 麻豆国产97在线 | 欧洲 | 少妇高潮一区二区三区99 | 日本www一道久久久免费榴莲 | 久久久久久av无码免费看大片 | 奇米影视7777久久精品人人爽 | 无码中文字幕色专区 | 美女黄网站人色视频免费国产 | 熟女少妇人妻中文字幕 | 狠狠色噜噜狠狠狠7777奇米 | 麻豆蜜桃av蜜臀av色欲av | 日韩av无码一区二区三区 | 成人一区二区免费视频 | 日本一卡2卡3卡四卡精品网站 | 人人妻人人澡人人爽欧美一区九九 | 老熟妇仑乱视频一区二区 | 色爱情人网站 | 欧美午夜特黄aaaaaa片 | 成人三级无码视频在线观看 | 中文字幕乱码人妻二区三区 | 亚洲人成影院在线无码按摩店 | 亚洲人亚洲人成电影网站色 | aⅴ亚洲 日韩 色 图网站 播放 | 人妻体内射精一区二区三四 | 精品水蜜桃久久久久久久 | 日韩亚洲欧美精品综合 | 精品偷拍一区二区三区在线看 | 亚洲人成网站在线播放942 | 成年女人永久免费看片 | 久久99精品国产麻豆 | 中文字幕无码日韩欧毛 | 精品成在人线av无码免费看 | 少妇的肉体aa片免费 | 日本免费一区二区三区最新 | 夜先锋av资源网站 | 国产成人精品三级麻豆 | 精品乱子伦一区二区三区 | 久久午夜无码鲁丝片秋霞 | 国产亚洲精品精品国产亚洲综合 | 亚洲成a人片在线观看日本 | 国产麻豆精品一区二区三区v视界 | 久久99精品国产.久久久久 | 亚洲精品综合一区二区三区在线 | 久久久久成人片免费观看蜜芽 | 欧美三级不卡在线观看 | 国语自产偷拍精品视频偷 | 特黄特色大片免费播放器图片 | 久久久久se色偷偷亚洲精品av | 精品乱码久久久久久久 | 伊人久久婷婷五月综合97色 | 免费观看的无遮挡av | 久久综合给合久久狠狠狠97色 | 丰满岳乱妇在线观看中字无码 | 中文无码伦av中文字幕 | 天天做天天爱天天爽综合网 | 亚洲无人区午夜福利码高清完整版 | 澳门永久av免费网站 | 欧美野外疯狂做受xxxx高潮 | 啦啦啦www在线观看免费视频 | www成人国产高清内射 | 日韩 欧美 动漫 国产 制服 | 一本大道伊人av久久综合 | 国产亚洲视频中文字幕97精品 | 亚洲色无码一区二区三区 | 久久久久久国产精品无码下载 | 精品久久综合1区2区3区激情 | 最近免费中文字幕中文高清百度 | 性开放的女人aaa片 | 久久国产精品萌白酱免费 | 日本高清一区免费中文视频 | 国产亚洲精品久久久久久国模美 | 正在播放东北夫妻内射 | 理论片87福利理论电影 | 亚洲s码欧洲m码国产av | 狠狠亚洲超碰狼人久久 | 亚洲国产成人av在线观看 | 小鲜肉自慰网站xnxx | 女人色极品影院 | 亚洲午夜久久久影院 | 无码免费一区二区三区 | 久久久精品国产sm最大网站 | 久久久久久久女国产乱让韩 | 老司机亚洲精品影院无码 | 亚无码乱人伦一区二区 | 亚洲日本va午夜在线电影 | 天天拍夜夜添久久精品 | 女人被男人躁得好爽免费视频 | 久久99热只有频精品8 | 日韩av无码一区二区三区 | 国产成人午夜福利在线播放 | 波多野结衣乳巨码无在线观看 | 欧美freesex黑人又粗又大 | 亚洲七七久久桃花影院 | 青青草原综合久久大伊人精品 | 久久精品人妻少妇一区二区三区 | 成人女人看片免费视频放人 | 欧美野外疯狂做受xxxx高潮 | 久久国产精品_国产精品 | 波多野42部无码喷潮在线 | 精品久久综合1区2区3区激情 | 久久久久成人片免费观看蜜芽 | 欧美丰满老熟妇xxxxx性 | 天堂久久天堂av色综合 | 久久精品无码一区二区三区 | 人妻插b视频一区二区三区 | 99久久久国产精品无码免费 | 欧美精品一区二区精品久久 | 久久久久免费看成人影片 | 亚洲熟妇色xxxxx欧美老妇y | 精品无码av一区二区三区 | 一本久道久久综合狠狠爱 | 少妇性荡欲午夜性开放视频剧场 | 久久午夜无码鲁丝片秋霞 | 亚洲精品国偷拍自产在线麻豆 | 国产97人人超碰caoprom | 日产国产精品亚洲系列 | 亚洲精品国产精品乱码视色 | 97夜夜澡人人爽人人喊中国片 | 亚洲 欧美 激情 小说 另类 | 国产欧美熟妇另类久久久 | 爱做久久久久久 | 国产精品无码一区二区桃花视频 | 无套内谢的新婚少妇国语播放 | 国产精品无码mv在线观看 | 图片区 小说区 区 亚洲五月 | 天天摸天天碰天天添 | 午夜福利电影 | 国产女主播喷水视频在线观看 | 国产肉丝袜在线观看 | 久久久久国色av免费观看性色 | 骚片av蜜桃精品一区 | 波多野结衣av一区二区全免费观看 | 天天燥日日燥 | 欧美成人高清在线播放 | 精品无人区无码乱码毛片国产 | 激情爆乳一区二区三区 | 国产麻豆精品精东影业av网站 | 成人精品视频一区二区三区尤物 | 亚洲精品久久久久中文第一幕 | 成人影院yy111111在线观看 | 帮老师解开蕾丝奶罩吸乳网站 | a在线观看免费网站大全 | 日韩 欧美 动漫 国产 制服 | 国产精品香蕉在线观看 | 免费网站看v片在线18禁无码 | 18禁黄网站男男禁片免费观看 | 日日摸日日碰夜夜爽av | 国产在线一区二区三区四区五区 | 成人试看120秒体验区 | 久久久久免费精品国产 | 久久精品人人做人人综合试看 | 免费人成网站视频在线观看 | 无码人妻少妇伦在线电影 | 亚洲乱码中文字幕在线 | 亚洲精品一区三区三区在线观看 | 国产成人无码一二三区视频 | 亚洲男人av天堂午夜在 | 少妇邻居内射在线 | 欧美老人巨大xxxx做受 | 女人被男人躁得好爽免费视频 | 妺妺窝人体色www在线小说 | 欧美丰满熟妇xxxx | 久久午夜无码鲁丝片 | 色五月丁香五月综合五月 | 亚洲国产精品无码一区二区三区 | 无码av免费一区二区三区试看 | 国产精品人妻一区二区三区四 | 亚洲精品久久久久中文第一幕 | 亚洲成av人在线观看网址 | 久久久久99精品国产片 | 成在人线av无码免费 | 97夜夜澡人人爽人人喊中国片 | 日韩精品无码一区二区中文字幕 | 久久久久久国产精品无码下载 | 中文精品无码中文字幕无码专区 | 成熟妇人a片免费看网站 | 少妇人妻偷人精品无码视频 | 亚洲综合无码一区二区三区 | 国产日产欧产精品精品app | 蜜臀aⅴ国产精品久久久国产老师 | 97夜夜澡人人双人人人喊 | 无遮挡啪啪摇乳动态图 | av无码久久久久不卡免费网站 | 亚洲 a v无 码免 费 成 人 a v | 2020最新国产自产精品 | 欧美亚洲日韩国产人成在线播放 | 永久免费观看国产裸体美女 | 国产极品美女高潮无套在线观看 | 国产一区二区三区影院 | 亚洲男人av天堂午夜在 | 色欲av亚洲一区无码少妇 | 在线观看欧美一区二区三区 | 国产熟女一区二区三区四区五区 | 天堂亚洲2017在线观看 | 青青久在线视频免费观看 | 亚洲一区二区三区偷拍女厕 | 成人性做爰aaa片免费看 | 日韩av激情在线观看 | 日韩精品无码一本二本三本色 | 亚洲va欧美va天堂v国产综合 | 亚洲人成网站免费播放 | 成人免费视频视频在线观看 免费 | 国产精品99久久精品爆乳 | a国产一区二区免费入口 | 国产亚洲精品久久久久久久久动漫 | 成人欧美一区二区三区黑人免费 | 成人aaa片一区国产精品 | 女高中生第一次破苞av | 国産精品久久久久久久 | av无码电影一区二区三区 | 久久国产精品二国产精品 | 亚洲爆乳大丰满无码专区 | 久久久久久亚洲精品a片成人 | 最近的中文字幕在线看视频 | 中文无码伦av中文字幕 | 精品一区二区三区无码免费视频 | a在线观看免费网站大全 | 国产亚洲欧美日韩亚洲中文色 | 亚洲精品国偷拍自产在线麻豆 | 蜜臀av无码人妻精品 | 国产成人无码av在线影院 | 无码人妻出轨黑人中文字幕 | 红桃av一区二区三区在线无码av | 国产精品久久久久久久9999 | 国产亚洲精品精品国产亚洲综合 | 成人性做爰aaa片免费看 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 六月丁香婷婷色狠狠久久 | 久久婷婷五月综合色国产香蕉 | 无套内谢的新婚少妇国语播放 | 国精产品一品二品国精品69xx | 亚洲国产精品久久久天堂 | 色五月五月丁香亚洲综合网 | 人妻插b视频一区二区三区 | 婷婷丁香五月天综合东京热 | 国产艳妇av在线观看果冻传媒 | 国产国产精品人在线视 | 亚洲欧洲无卡二区视頻 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 色综合久久久无码中文字幕 | 伊在人天堂亚洲香蕉精品区 | 成 人影片 免费观看 | 性欧美videos高清精品 | 一本久道久久综合婷婷五月 | 亚洲人交乣女bbw | 呦交小u女精品视频 | 亚洲日韩乱码中文无码蜜桃臀网站 | 伊人久久大香线焦av综合影院 | 成年美女黄网站色大免费视频 | 国产电影无码午夜在线播放 | 午夜时刻免费入口 | 初尝人妻少妇中文字幕 | 亚洲熟妇色xxxxx欧美老妇 | 天天爽夜夜爽夜夜爽 | 亚洲乱码中文字幕在线 | 九九综合va免费看 | 老子影院午夜伦不卡 | 亚洲日本在线电影 | 天天av天天av天天透 | 内射老妇bbwx0c0ck | 国产在线精品一区二区三区直播 | 亚洲精品一区三区三区在线观看 | 成人亚洲精品久久久久软件 | 国产精品人人妻人人爽 | 国产精品亚洲lv粉色 | 在线成人www免费观看视频 | 国产成人精品无码播放 | 99re在线播放 | 国产片av国语在线观看 | 亚洲国产成人av在线观看 | 亚洲a无码综合a国产av中文 | 久久亚洲中文字幕无码 | 久9re热视频这里只有精品 | 精品成人av一区二区三区 | 国产午夜福利100集发布 | 亚洲欧美日韩综合久久久 | 高清无码午夜福利视频 | 骚片av蜜桃精品一区 | 久久久久久久女国产乱让韩 | 国产精品沙发午睡系列 | 精品国产福利一区二区 | 一个人免费观看的www视频 | 双乳奶水饱满少妇呻吟 | 国产色视频一区二区三区 | 久久久精品欧美一区二区免费 | 亚洲日韩中文字幕在线播放 | 国产香蕉尹人视频在线 | 亚洲精品中文字幕乱码 | 四虎国产精品一区二区 | 国产av一区二区精品久久凹凸 | 沈阳熟女露脸对白视频 | 国内精品人妻无码久久久影院蜜桃 | 中文字幕无线码 | 国产亚洲欧美日韩亚洲中文色 | 国产精品爱久久久久久久 | 精品一区二区不卡无码av | 18无码粉嫩小泬无套在线观看 | 一个人看的视频www在线 | 欧美丰满少妇xxxx性 | 亚洲成av人综合在线观看 | 久久久久久久人妻无码中文字幕爆 | 少妇的肉体aa片免费 | 伊人久久婷婷五月综合97色 | 熟妇人妻无乱码中文字幕 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 精品久久综合1区2区3区激情 | 国产凸凹视频一区二区 | 高潮毛片无遮挡高清免费视频 | www国产精品内射老师 | 中文字幕中文有码在线 | 欧美成人午夜精品久久久 | 99久久99久久免费精品蜜桃 | 亚洲一区二区三区播放 | 久久国产精品二国产精品 | 国产女主播喷水视频在线观看 | 亚洲成a人片在线观看无码3d | 久久人人爽人人爽人人片av高清 | 一本久久a久久精品vr综合 | 大肉大捧一进一出好爽视频 | 人妻互换免费中文字幕 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 亚洲精品一区二区三区婷婷月 | 久久国产劲爆∧v内射 | 国产亚洲视频中文字幕97精品 | 久久午夜无码鲁丝片秋霞 | 又色又爽又黄的美女裸体网站 | 日韩精品一区二区av在线 | 婷婷色婷婷开心五月四房播播 | 四虎4hu永久免费 | 一个人看的视频www在线 | 亚洲 高清 成人 动漫 | 日本精品人妻无码免费大全 | 在线精品国产一区二区三区 | 色综合久久88色综合天天 | 奇米影视7777久久精品人人爽 | 老熟妇乱子伦牲交视频 | 国产婷婷色一区二区三区在线 | 亚洲色在线无码国产精品不卡 | 内射老妇bbwx0c0ck | 牲交欧美兽交欧美 | 精品人妻av区 | 狠狠综合久久久久综合网 | 久久久久se色偷偷亚洲精品av | 男女作爱免费网站 | 亚洲精品一区二区三区婷婷月 | 久久久婷婷五月亚洲97号色 | 青草视频在线播放 | 特黄特色大片免费播放器图片 | 国产人妻精品一区二区三区不卡 | 欧美 丝袜 自拍 制服 另类 | 亚洲人成无码网www | 亚洲色偷偷偷综合网 | 精品欧美一区二区三区久久久 | 色婷婷综合激情综在线播放 | 给我免费的视频在线观看 | 3d动漫精品啪啪一区二区中 | 激情亚洲一区国产精品 | 自拍偷自拍亚洲精品被多人伦好爽 | 日韩 欧美 动漫 国产 制服 | 国产激情无码一区二区app | 国产麻豆精品一区二区三区v视界 | 成人综合网亚洲伊人 | 嫩b人妻精品一区二区三区 | 天堂亚洲免费视频 | 野狼第一精品社区 | 成年美女黄网站色大免费全看 | 国产av久久久久精东av | 蜜桃av抽搐高潮一区二区 | 亚洲日韩一区二区三区 | 国产免费久久久久久无码 | 熟妇人妻无码xxx视频 | 人人妻人人澡人人爽人人精品 | 国产精品无码永久免费888 | 乱人伦人妻中文字幕无码久久网 | 又湿又紧又大又爽a视频国产 | 国产精品理论片在线观看 | av小次郎收藏 | 少妇无码一区二区二三区 | 欧美日韩综合一区二区三区 | 图片小说视频一区二区 | 欧美肥老太牲交大战 | 亚洲日韩av一区二区三区中文 | 亚洲a无码综合a国产av中文 | 99精品久久毛片a片 | 国产三级久久久精品麻豆三级 | 国产精品免费大片 | 久久综合狠狠综合久久综合88 | 亚洲精品国产a久久久久久 | 秋霞成人午夜鲁丝一区二区三区 | 女人被男人躁得好爽免费视频 | 国产无遮挡吃胸膜奶免费看 | 一本无码人妻在中文字幕免费 | 国产九九九九九九九a片 | 久久精品中文闷骚内射 | 国产麻豆精品一区二区三区v视界 | 牛和人交xxxx欧美 | 性做久久久久久久久 | 小泽玛莉亚一区二区视频在线 | 中文字幕无码日韩欧毛 | 九九综合va免费看 | 亚洲国产精华液网站w | 天堂一区人妻无码 | 兔费看少妇性l交大片免费 | 久久久久免费看成人影片 | 久久久久亚洲精品中文字幕 | 九月婷婷人人澡人人添人人爽 | 女人被男人爽到呻吟的视频 | 国产热a欧美热a在线视频 | 欧美一区二区三区 | 中文精品久久久久人妻不卡 | 久久熟妇人妻午夜寂寞影院 | 成 人 网 站国产免费观看 | 亚洲国产精品一区二区美利坚 | 18禁黄网站男男禁片免费观看 | 亚洲爆乳大丰满无码专区 | 色情久久久av熟女人妻网站 | 蜜桃视频韩日免费播放 | av无码久久久久不卡免费网站 | 日日橹狠狠爱欧美视频 | 精品无码国产一区二区三区av | 东京热无码av男人的天堂 | 99久久精品日本一区二区免费 | 久久久av男人的天堂 | 97人妻精品一区二区三区 | 天干天干啦夜天干天2017 | 欧美 丝袜 自拍 制服 另类 | 久久精品国产一区二区三区 | 欧美丰满老熟妇xxxxx性 | 国产亚洲精品久久久久久 | 欧美激情综合亚洲一二区 | 人妻天天爽夜夜爽一区二区 | 亚洲国产精品无码一区二区三区 | 西西人体www44rt大胆高清 | 377p欧洲日本亚洲大胆 | 亚洲精品一区二区三区四区五区 | 国产又爽又黄又刺激的视频 | 男女超爽视频免费播放 | 日本xxxx色视频在线观看免费 | 天天综合网天天综合色 | 国产激情综合五月久久 | 亚洲男女内射在线播放 | 亚洲综合色区中文字幕 | 又大又紧又粉嫩18p少妇 | 夫妻免费无码v看片 | 日本又色又爽又黄的a片18禁 | 国产超级va在线观看视频 | 国产精品国产自线拍免费软件 | 精品亚洲成av人在线观看 | 国产偷抇久久精品a片69 | 久久国产精品偷任你爽任你 | 无码国产激情在线观看 | 国产亚洲精品久久久久久久久动漫 | 撕开奶罩揉吮奶头视频 | 大肉大捧一进一出视频出来呀 | 久久国语露脸国产精品电影 | 丁香花在线影院观看在线播放 | 一本色道久久综合亚洲精品不卡 | 伦伦影院午夜理论片 | 漂亮人妻洗澡被公强 日日躁 | 国产女主播喷水视频在线观看 | 狠狠色欧美亚洲狠狠色www | 麻豆精产国品 | 亚洲精品欧美二区三区中文字幕 | 国产激情艳情在线看视频 | 999久久久国产精品消防器材 | 免费观看又污又黄的网站 | 少妇无码吹潮 | 国产av无码专区亚洲awww | www国产亚洲精品久久久日本 | 国产一区二区不卡老阿姨 | 日本护士毛茸茸高潮 | 樱花草在线社区www | 久久精品中文字幕大胸 | 国产在线精品一区二区高清不卡 | 日韩精品a片一区二区三区妖精 | 成人无码视频在线观看网站 | 亚洲欧美日韩成人高清在线一区 | 日本大乳高潮视频在线观看 | 西西人体www44rt大胆高清 | av无码久久久久不卡免费网站 | 欧美日韩精品 | 午夜精品一区二区三区在线观看 | 亚洲爆乳大丰满无码专区 | 最新国产麻豆aⅴ精品无码 | 无码任你躁久久久久久久 | 欧美野外疯狂做受xxxx高潮 | 亚洲精品久久久久avwww潮水 | 大地资源中文第3页 | aⅴ在线视频男人的天堂 | 国产凸凹视频一区二区 | 成人精品视频一区二区三区尤物 | 久久精品国产99久久6动漫 | 纯爱无遮挡h肉动漫在线播放 | 给我免费的视频在线观看 | 中文毛片无遮挡高清免费 | 欧美xxxx黑人又粗又长 | 成人亚洲精品久久久久软件 | 欧洲熟妇精品视频 | 精品无码av一区二区三区 | 一本精品99久久精品77 | 少妇人妻av毛片在线看 | 亚洲春色在线视频 | 亚洲春色在线视频 | 国内精品人妻无码久久久影院蜜桃 | 天堂亚洲2017在线观看 | 无码任你躁久久久久久久 | 欧美国产日韩久久mv | 国产精品18久久久久久麻辣 | 青草视频在线播放 | 亚洲国产精品无码久久久久高潮 | 免费观看的无遮挡av | 国产精品高潮呻吟av久久 | www国产亚洲精品久久久日本 | 国产免费久久久久久无码 | 乱人伦人妻中文字幕无码久久网 | av无码电影一区二区三区 | 国产精品多人p群无码 | 国产精品第一区揄拍无码 | 捆绑白丝粉色jk震动捧喷白浆 | 国产无遮挡又黄又爽又色 | 老熟女重囗味hdxx69 | 国产精品丝袜黑色高跟鞋 | 无套内谢的新婚少妇国语播放 | 国产电影无码午夜在线播放 | 狠狠色噜噜狠狠狠狠7777米奇 | 高清不卡一区二区三区 | 狠狠色丁香久久婷婷综合五月 | 中文字幕无码日韩专区 | 激情亚洲一区国产精品 | 香蕉久久久久久av成人 | 黑人巨大精品欧美一区二区 | 蜜桃臀无码内射一区二区三区 | 蜜桃无码一区二区三区 | 成 人 网 站国产免费观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 精品无码国产自产拍在线观看蜜 | 色偷偷人人澡人人爽人人模 | 日韩av无码中文无码电影 | 青草青草久热国产精品 | 亚洲欧美日韩综合久久久 | 午夜性刺激在线视频免费 | 我要看www免费看插插视频 | 久久精品女人的天堂av | 亚洲精品久久久久中文第一幕 | 久久综合给久久狠狠97色 | 无码国内精品人妻少妇 | 亚洲自偷自拍另类第1页 | 暴力强奷在线播放无码 | 久久久久久亚洲精品a片成人 | 性开放的女人aaa片 | 内射欧美老妇wbb | 在线观看免费人成视频 | 天堂无码人妻精品一区二区三区 | 双乳奶水饱满少妇呻吟 | 亚洲成av人在线观看网址 | 久久zyz资源站无码中文动漫 | 成 人 免费观看网站 | 欧美老熟妇乱xxxxx | 亚洲中文字幕无码中文字在线 | 国产精品久久久av久久久 | 丰满岳乱妇在线观看中字无码 | 亚洲人成网站在线播放942 | 国产真人无遮挡作爱免费视频 | 一本久道久久综合狠狠爱 | 国产成人人人97超碰超爽8 | 日欧一片内射va在线影院 | 两性色午夜免费视频 | 久久久精品人妻久久影视 | 老熟女重囗味hdxx69 | 欧美性猛交xxxx富婆 | 性史性农村dvd毛片 | 亚洲成a人片在线观看日本 | 内射巨臀欧美在线视频 | 真人与拘做受免费视频 | 欧美自拍另类欧美综合图片区 | 国产精品久久久午夜夜伦鲁鲁 | 国产特级毛片aaaaaa高潮流水 | 国产精品久久久久久无码 | 久久久久亚洲精品男人的天堂 | 乱人伦中文视频在线观看 | 国内老熟妇对白xxxxhd | 亚洲熟妇色xxxxx欧美老妇y | 极品尤物被啪到呻吟喷水 | 激情综合激情五月俺也去 | 午夜理论片yy44880影院 | 国产精品无码一区二区三区不卡 | 伊人久久大香线蕉午夜 | 国产精品办公室沙发 | 国产av无码专区亚洲awww | 在线观看免费人成视频 | 正在播放老肥熟妇露脸 | 中文字幕无码热在线视频 | 无码任你躁久久久久久久 | 牲欲强的熟妇农村老妇女 | 男人扒开女人内裤强吻桶进去 | 欧美freesex黑人又粗又大 | 久久综合香蕉国产蜜臀av | 窝窝午夜理论片影院 | av人摸人人人澡人人超碰下载 | 丝袜 中出 制服 人妻 美腿 | 日韩精品无码一本二本三本色 | 天堂在线观看www | 2019nv天堂香蕉在线观看 | 成人免费无码大片a毛片 | 久久亚洲精品中文字幕无男同 | 国产超级va在线观看视频 | 亚洲经典千人经典日产 | www国产亚洲精品久久久日本 | 国产精品国产自线拍免费软件 | 扒开双腿吃奶呻吟做受视频 | 色欲久久久天天天综合网精品 | 国产人妻大战黑人第1集 | 色综合视频一区二区三区 | 又黄又爽又色的视频 | 一区二区传媒有限公司 | 久久无码中文字幕免费影院蜜桃 | 亚洲第一无码av无码专区 | 在线а√天堂中文官网 | 99riav国产精品视频 | 日本大乳高潮视频在线观看 | 国产热a欧美热a在线视频 | 久久精品国产一区二区三区 | 任你躁在线精品免费 | 日本饥渴人妻欲求不满 | 国产在线无码精品电影网 | av无码电影一区二区三区 | 丰满少妇女裸体bbw | 色一情一乱一伦一视频免费看 | 成人免费视频视频在线观看 免费 | 又大又硬又黄的免费视频 | 在线a亚洲视频播放在线观看 | 少妇性俱乐部纵欲狂欢电影 | 国内精品久久久久久中文字幕 | 色综合久久久无码中文字幕 | 领导边摸边吃奶边做爽在线观看 | 精品国产av色一区二区深夜久久 | 国产成人精品无码播放 | 欧美亚洲日韩国产人成在线播放 | 色一情一乱一伦一区二区三欧美 | 国产精品第一区揄拍无码 | 国产精品美女久久久 | 天堂а√在线中文在线 | 特黄特色大片免费播放器图片 | 东京无码熟妇人妻av在线网址 | 97精品人妻一区二区三区香蕉 | 精品久久久中文字幕人妻 | 300部国产真实乱 | 超碰97人人做人人爱少妇 | 精品亚洲韩国一区二区三区 | 国产精品国产自线拍免费软件 | 啦啦啦www在线观看免费视频 | 午夜熟女插插xx免费视频 | av小次郎收藏 | 成人片黄网站色大片免费观看 | 国产亚洲精品久久久久久 | 欧美日韩亚洲国产精品 | 国产精品视频免费播放 | 激情国产av做激情国产爱 | 麻豆果冻传媒2021精品传媒一区下载 | 国产成人无码a区在线观看视频app | 国产精品内射视频免费 | 色欲久久久天天天综合网精品 | 精品国产一区二区三区四区 | 国产激情无码一区二区app | 伊人久久大香线蕉午夜 | 欧美激情内射喷水高潮 | 国产高清av在线播放 | 国产人妻精品一区二区三区不卡 | 无码国产激情在线观看 | 老熟妇仑乱视频一区二区 | 色婷婷综合激情综在线播放 | 人妻少妇精品视频专区 | 性生交大片免费看女人按摩摩 | 黑人玩弄人妻中文在线 | 高潮毛片无遮挡高清免费 | 亚洲精品国偷拍自产在线观看蜜桃 | 网友自拍区视频精品 | 中文字幕无码人妻少妇免费 | 131美女爱做视频 | 我要看www免费看插插视频 | 中文字幕无码av激情不卡 | 国内精品一区二区三区不卡 | 东京热无码av男人的天堂 | 久久 国产 尿 小便 嘘嘘 | 亚洲一区二区三区含羞草 | 中文字幕人妻无码一夲道 | 国产综合色产在线精品 | 成人精品一区二区三区中文字幕 | 国产av一区二区三区最新精品 | 国产麻豆精品一区二区三区v视界 | 97精品人妻一区二区三区香蕉 | 免费视频欧美无人区码 | 国产精品对白交换视频 | 无码帝国www无码专区色综合 | 377p欧洲日本亚洲大胆 | 欧美丰满熟妇xxxx性ppx人交 | 樱花草在线播放免费中文 | 少妇一晚三次一区二区三区 | 精品无码国产自产拍在线观看蜜 | 麻豆国产人妻欲求不满谁演的 | 国产乱码精品一品二品 | 国产亚洲日韩欧美另类第八页 | 人妻少妇被猛烈进入中文字幕 | 5858s亚洲色大成网站www | 少妇性荡欲午夜性开放视频剧场 | 久久久久久久久888 | 人人妻人人澡人人爽人人精品 | 老熟妇仑乱视频一区二区 | 女人被男人躁得好爽免费视频 | 久久久婷婷五月亚洲97号色 | 精品欧洲av无码一区二区三区 | 欧洲精品码一区二区三区免费看 | 欧美性猛交内射兽交老熟妇 | 精品 日韩 国产 欧美 视频 | 伊人久久大香线焦av综合影院 | 无码国模国产在线观看 | 国产电影无码午夜在线播放 | 精品国产aⅴ无码一区二区 | 国产又爽又黄又刺激的视频 |