3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

cs231n:assignment2——Q1: Fully-connected Neural Network

發(fā)布時間:2023/12/20 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 cs231n:assignment2——Q1: Fully-connected Neural Network 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

視頻里 Andrej Karpathy上課的時候說,這次的作業(yè)meaty but educational,確實很meaty,作業(yè)一般是由.ipynb文件和.py文件組成,這次因為每個.ipynb文件涉及到的.py文件較多,且互相之間有交叉,所以每篇博客只貼出一個.ipynb或者一個.py文件.(因為之前的作業(yè)由于是一個.ipynb文件對應(yīng)一個.py文件,所以就整合到一篇博客里)
還是那句話,有錯誤希望幫我指出來,多多指教,謝謝
FullyConnectedNets.ipynb內(nèi)容:

  • Fully-Connected Neural Nets
  • Affine layer foward
  • Affine layer backward
  • ReLU layer forward
  • ReLU layer backward
  • Sandwich layers
  • Loss layers Softmax and SVM
  • Two-layer network
  • Solver
  • Multilayer network
    • Initial loss and gradient check
  • Inline question
  • Answer
  • Update rules
  • SGDMomentum
  • RMSProp and Adam
  • Train a good model
  • Test you model

Fully-Connected Neural Nets

In the previous homework you implemented a fully-connected two-layer neural network on CIFAR-10. The implementation was simple but not very modular since the loss and gradient were computed in a single monolithic function. This is manageable for a simple two-layer network, but would become impractical as we move to bigger models. Ideally we want to build networks using a more modular design so that we can implement different layer types in isolation and then snap them together into models with different architectures.

In this exercise we will implement fully-connected networks using a more modular approach. For each layer we will implement a forward and a backward function. The forward function will receive inputs, weights, and other parameters and will return both an output and a cache object storing data needed for the backward pass, like this:

def layer_forward(x, w):""" Receive inputs x and weights w """# Do some computations ...z = # ... some intermediate value# Do some more computations ...out = # the outputcache = (x, w, z, out) # Values we need to compute gradientsreturn out, cache

The backward pass will receive upstream derivatives and the cache object, and will return gradients with respect to the inputs and weights, like this:

def layer_backward(dout, cache):"""Receive derivative of loss with respect to outputs and cache,and compute derivative with respect to inputs."""# Unpack cache valuesx, w, z, out = cache# Use values in cache to compute derivativesdx = # Derivative of loss with respect to xdw = # Derivative of loss with respect to wreturn dx, dw

After implementing a bunch of layers this way, we will be able to easily combine them to build classifiers with different architectures.

In addition to implementing fully-connected networks of arbitrary depth, we will also explore different update rules for optimization, and introduce Dropout as a regularizer and Batch Normalization as a tool to more efficiently optimize deep networks.

# As usual, a bit of setupimport time import numpy as np import matplotlib.pyplot as plt from cs231n.classifiers.fc_net import * from cs231n.data_utils import get_CIFAR10_data from cs231n.gradient_check import eval_numerical_gradient, eval_numerical_gradient_array from cs231n.solver import Solver%matplotlib inline plt.rcParams['figure.figsize'] = (10.0, 8.0) # set default size of plots plt.rcParams['image.interpolation'] = 'nearest' plt.rcParams['image.cmap'] = 'gray'# for auto-reloading external modules # see http://stackoverflow.com/questions/1907993/autoreload-of-modules-in-ipython %load_ext autoreload %autoreload 2def rel_error(x, y):""" returns relative error """return np.max(np.abs(x - y) / (np.maximum(1e-8, np.abs(x) + np.abs(y)))) # Load the (preprocessed) CIFAR10 data.data = get_CIFAR10_data() for k, v in data.iteritems():print '%s: ' % k, v.shape X_val: (1000, 3, 32, 32) X_train: (49000, 3, 32, 32) X_test: (1000, 3, 32, 32) y_val: (1000,) y_train: (49000,) y_test: (1000,)

Affine layer: foward

Open the file cs231n/layers.py and implement the affine_forward function.

Once you are done you can test your implementaion by running the following:

# Test the affine_forward functionnum_inputs = 2 input_shape = (4, 5, 6) output_dim = 3input_size = num_inputs * np.prod(input_shape) weight_size = output_dim * np.prod(input_shape)x = np.linspace(-0.1, 0.5, num=input_size).reshape(num_inputs, *input_shape) w = np.linspace(-0.2, 0.3, num=weight_size).reshape(np.prod(input_shape), output_dim) b = np.linspace(-0.3, 0.1, num=output_dim)out, _ = affine_forward(x, w, b) correct_out = np.array([[ 1.49834967, 1.70660132, 1.91485297],[ 3.25553199, 3.5141327, 3.77273342]])# Compare your output with ours. The error should be around 1e-9. print 'Testing affine_forward function:' print 'difference: ', rel_error(out, correct_out) Testing affine_forward function: difference: 9.76985004799e-10

Affine layer: backward

Now implement the affine_backward function and test your implementation using numeric gradient checking.

# Test the affine_backward functionx = np.random.randn(10, 2, 3) w = np.random.randn(6, 5) b = np.random.randn(5) dout = np.random.randn(10, 5)dx_num = eval_numerical_gradient_array(lambda x: affine_forward(x, w, b)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: affine_forward(x, w, b)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: affine_forward(x, w, b)[0], b, dout)_, cache = affine_forward(x, w, b) dx, dw, db = affine_backward(dout, cache)# The error should be around 1e-10 print 'Testing affine_backward function:' print 'dx error: ', rel_error(dx_num, dx) print 'dw error: ', rel_error(dw_num, dw) print 'db error: ', rel_error(db_num, db) Testing affine_backward function: dx error: 5.82176848644e-11 dw error: 1.69054721917e-10 db error: 1.40577633097e-11

ReLU layer: forward

Implement the forward pass for the ReLU activation function in the relu_forward function and test your implementation using the following:

# Test the relu_forward functionx = np.linspace(-0.5, 0.5, num=12).reshape(3, 4)out, _ = relu_forward(x) correct_out = np.array([[ 0., 0., 0., 0., ],[ 0., 0., 0.04545455, 0.13636364,],[ 0.22727273, 0.31818182, 0.40909091, 0.5, ]])# Compare your output with ours. The error should be around 1e-8 print 'Testing relu_forward function:' print 'difference: ', rel_error(out, correct_out) Testing relu_forward function: difference: 4.99999979802e-08

ReLU layer: backward

Now implement the backward pass for the ReLU activation function in the relu_backward function and test your implementation using numeric gradient checking:

x = np.random.randn(10, 10) dout = np.random.randn(*x.shape)dx_num = eval_numerical_gradient_array(lambda x: relu_forward(x)[0], x, dout)_, cache = relu_forward(x) dx = relu_backward(dout, cache)# The error should be around 1e-12 print 'Testing relu_backward function:' print 'dx error: ', rel_error(dx_num, dx) Testing relu_backward function: dx error: 3.27562740606e-12

“Sandwich” layers

There are some common patterns of layers that are frequently used in neural nets. For example, affine layers are frequently followed by a ReLU nonlinearity. To make these common patterns easy, we define several convenience layers in the file cs231n/layer_utils.py.

For now take a look at the affine_relu_forward and affine_relu_backward functions, and run the following to numerically gradient check the backward pass:

from cs231n.layer_utils import affine_relu_forward, affine_relu_backwardx = np.random.randn(2, 3, 4) w = np.random.randn(12, 10) b = np.random.randn(10) dout = np.random.randn(2, 10)out, cache = affine_relu_forward(x, w, b) dx, dw, db = affine_relu_backward(dout, cache)dx_num = eval_numerical_gradient_array(lambda x: affine_relu_forward(x, w, b)[0], x, dout) dw_num = eval_numerical_gradient_array(lambda w: affine_relu_forward(x, w, b)[0], w, dout) db_num = eval_numerical_gradient_array(lambda b: affine_relu_forward(x, w, b)[0], b, dout)print 'Testing affine_relu_forward:' print 'dx error: ', rel_error(dx_num, dx) print 'dw error: ', rel_error(dw_num, dw) print 'db error: ', rel_error(db_num, db) Testing affine_relu_forward: dx error: 3.60036208641e-10 dw error: 2.61229361266e-09 db error: 4.99397627854e-12

Loss layers: Softmax and SVM

You implemented these loss functions in the last assignment, so we’ll give them to you for free here. You should still make sure you understand how they work by looking at the implementations in cs231n/layers.py.

You can make sure that the implementations are correct by running the following:

num_classes, num_inputs = 10, 50 x = 0.001 * np.random.randn(num_inputs, num_classes) y = np.random.randint(num_classes, size=num_inputs)dx_num = eval_numerical_gradient(lambda x: svm_loss(x, y)[0], x, verbose=False) loss, dx = svm_loss(x, y)# Test svm_loss function. Loss should be around 9 and dx error should be 1e-9 print 'Testing svm_loss:' print 'loss: ', loss print 'dx error: ', rel_error(dx_num, dx)dx_num = eval_numerical_gradient(lambda x: softmax_loss(x, y)[0], x, verbose=False) loss, dx = softmax_loss(x, y)# Test softmax_loss function. Loss should be 2.3 and dx error should be 1e-8 print '\nTesting softmax_loss:' print 'loss: ', loss print 'dx error: ', rel_error(dx_num, dx) Testing svm_loss: loss: 9.00052703662 dx error: 1.40215660067e-09Testing softmax_loss: loss: 2.30263822083 dx error: 1.0369484028e-08

Two-layer network

In the previous assignment you implemented a two-layer neural network in a single monolithic class. Now that you have implemented modular versions of the necessary layers, you will reimplement the two layer network using these modular implementations.

Open the file cs231n/classifiers/fc_net.py and complete the implementation of the TwoLayerNet class. This class will serve as a model for the other networks you will implement in this assignment, so read through it to make sure you understand the API. You can run the cell below to test your implementation.

N, D, H, C = 3, 5, 50, 7 X = np.random.randn(N, D) y = np.random.randint(C, size=N)std = 1e-2 model = TwoLayerNet(input_dim=D, hidden_dim=H, num_classes=C, weight_scale=std)print 'Testing initialization ... ' W1_std = abs(model.params['W1'].std() - std) b1 = model.params['b1'] W2_std = abs(model.params['W2'].std() - std) b2 = model.params['b2'] assert W1_std < std / 10, 'First layer weights do not seem right' assert np.all(b1 == 0), 'First layer biases do not seem right' assert W2_std < std / 10, 'Second layer weights do not seem right' assert np.all(b2 == 0), 'Second layer biases do not seem right'print 'Testing test-time forward pass ... ' model.params['W1'] = np.linspace(-0.7, 0.3, num=D*H).reshape(D, H) model.params['b1'] = np.linspace(-0.1, 0.9, num=H) model.params['W2'] = np.linspace(-0.3, 0.4, num=H*C).reshape(H, C) model.params['b2'] = np.linspace(-0.9, 0.1, num=C) X = np.linspace(-5.5, 4.5, num=N*D).reshape(D, N).T scores = model.loss(X) correct_scores = np.asarray([[11.53165108, 12.2917344, 13.05181771, 13.81190102, 14.57198434, 15.33206765, 16.09215096],[12.05769098, 12.74614105, 13.43459113, 14.1230412, 14.81149128, 15.49994135, 16.18839143],[12.58373087, 13.20054771, 13.81736455, 14.43418138, 15.05099822, 15.66781506, 16.2846319 ]]) scores_diff = np.abs(scores - correct_scores).sum() assert scores_diff < 1e-6, 'Problem with test-time forward pass'print 'Testing training loss (no regularization)' y = np.asarray([0, 5, 1]) loss, grads = model.loss(X, y) correct_loss = 3.4702243556 assert abs(loss - correct_loss) < 1e-10, 'Problem with training-time loss'model.reg = 1.0 loss, grads = model.loss(X, y) correct_loss = 26.5948426952 assert abs(loss - correct_loss) < 1e-10, 'Problem with regularization loss'for reg in [0.0, 0.7]:print 'Running numeric gradient check with reg = ', regmodel.reg = regloss, grads = model.loss(X, y)for name in sorted(grads):f = lambda _: model.loss(X, y)[0]grad_num = eval_numerical_gradient(f, model.params[name], verbose=False)print '%s relative error: %.2e' % (name, rel_error(grad_num, grads[name])) Testing initialization ... Testing test-time forward pass ... Testing training loss (no regularization) Running numeric gradient check with reg = 0.0 W1 relative error: 1.22e-08 W2 relative error: 3.34e-10 b1 relative error: 4.73e-09 b2 relative error: 4.33e-10 Running numeric gradient check with reg = 0.7 W1 relative error: 2.53e-07 W2 relative error: 1.37e-07 b1 relative error: 1.56e-08 b2 relative error: 9.09e-10

Solver

In the previous assignment, the logic for training models was coupled to the models themselves. Following a more modular design, for this assignment we have split the logic for training models into a separate class.

Open the file cs231n/solver.py and read through it to familiarize yourself with the API. After doing so, use a Solver instance to train a TwoLayerNet that achieves at least 50% accuracy on the validation set.

model = TwoLayerNet() solver = None############################################################################## # TODO: Use a Solver instance to train a TwoLayerNet that achieves at least # # 50% accuracy on the validation set. # ############################################################################## solver = Solver(model, data,update_rule='sgd',optim_config={'learning_rate': 1e-3,},lr_decay=0.95,num_epochs=10, batch_size=100,print_every=100) solver.train() solver.best_val_acc ############################################################################## # END OF YOUR CODE # ############################################################################## (Iteration 1 / 4900) loss: 2.309509 (Epoch 0 / 10) train acc: 0.111000; val_acc: 0.124000 (Iteration 101 / 4900) loss: 2.031418 (Iteration 201 / 4900) loss: 1.712236 (Iteration 301 / 4900) loss: 1.747420 (Iteration 401 / 4900) loss: 1.549451 (Epoch 1 / 10) train acc: 0.450000; val_acc: 0.414000 (Iteration 501 / 4900) loss: 1.630659 (Iteration 601 / 4900) loss: 1.491387 (Iteration 701 / 4900) loss: 1.442918 (Iteration 801 / 4900) loss: 1.351634 (Iteration 901 / 4900) loss: 1.453418 (Epoch 2 / 10) train acc: 0.491000; val_acc: 0.484000 (Iteration 1001 / 4900) loss: 1.485202 (Iteration 1101 / 4900) loss: 1.383021 (Iteration 1201 / 4900) loss: 1.346942 (Iteration 1301 / 4900) loss: 1.252413 (Iteration 1401 / 4900) loss: 1.537722 (Epoch 3 / 10) train acc: 0.521000; val_acc: 0.480000 (Iteration 1501 / 4900) loss: 1.365271 (Iteration 1601 / 4900) loss: 1.123946 (Iteration 1701 / 4900) loss: 1.315114 (Iteration 1801 / 4900) loss: 1.597782 (Iteration 1901 / 4900) loss: 1.416204 (Epoch 4 / 10) train acc: 0.546000; val_acc: 0.494000 (Iteration 2001 / 4900) loss: 1.114552 (Iteration 2101 / 4900) loss: 1.377966 (Iteration 2201 / 4900) loss: 1.121448 (Iteration 2301 / 4900) loss: 1.306290 (Iteration 2401 / 4900) loss: 1.404830 (Epoch 5 / 10) train acc: 0.559000; val_acc: 0.500000 (Iteration 2501 / 4900) loss: 1.123347 (Iteration 2601 / 4900) loss: 1.449507 (Iteration 2701 / 4900) loss: 1.308397 (Iteration 2801 / 4900) loss: 1.375048 (Iteration 2901 / 4900) loss: 1.259040 (Epoch 6 / 10) train acc: 0.572000; val_acc: 0.491000 (Iteration 3001 / 4900) loss: 1.119232 (Iteration 3101 / 4900) loss: 1.270312 (Iteration 3201 / 4900) loss: 1.204007 (Iteration 3301 / 4900) loss: 1.214074 (Iteration 3401 / 4900) loss: 1.110863 (Epoch 7 / 10) train acc: 0.566000; val_acc: 0.514000 (Iteration 3501 / 4900) loss: 1.253669 (Iteration 3601 / 4900) loss: 1.354838 (Iteration 3701 / 4900) loss: 1.299770 (Iteration 3801 / 4900) loss: 1.184324 (Iteration 3901 / 4900) loss: 1.154244 (Epoch 8 / 10) train acc: 0.594000; val_acc: 0.498000 (Iteration 4001 / 4900) loss: 0.911092 (Iteration 4101 / 4900) loss: 1.154072 (Iteration 4201 / 4900) loss: 1.106225 (Iteration 4301 / 4900) loss: 1.279295 (Iteration 4401 / 4900) loss: 1.046316 (Epoch 9 / 10) train acc: 0.611000; val_acc: 0.503000 (Iteration 4501 / 4900) loss: 1.172954 (Iteration 4601 / 4900) loss: 1.040094 (Iteration 4701 / 4900) loss: 1.369539 (Iteration 4801 / 4900) loss: 1.106506 (Epoch 10 / 10) train acc: 0.588000; val_acc: 0.51500.51500000000000001 # Run this cell to visualize training loss and train / val accuracyplt.subplot(2, 1, 1) plt.title('Training loss') plt.plot(solver.loss_history, 'o') plt.xlabel('Iteration')plt.subplot(2, 1, 2) plt.title('Accuracy') plt.plot(solver.train_acc_history, '-o', label='train') plt.plot(solver.val_acc_history, '-o', label='val') plt.plot([0.5] * len(solver.val_acc_history), 'k--') plt.xlabel('Epoch') plt.legend(loc='lower right') plt.gcf().set_size_inches(15, 12) plt.show()

Multilayer network

Next you will implement a fully-connected network with an arbitrary number of hidden layers.

Read through the FullyConnectedNet class in the file cs231n/classifiers/fc_net.py.

Implement the initialization, the forward pass, and the backward pass. For the moment don’t worry about implementing dropout or batch normalization; we will add those features soon.

Initial loss and gradient check

As a sanity check, run the following to check the initial loss and to gradient check the network both with and without regularization. Do the initial losses seem reasonable?

For gradient checking, you should expect to see errors around 1e-6 or less.

# 有的時候relative error會比較大,能達(dá)到1e-2的數(shù)量級,但是多運行幾次,所有參數(shù)的relative error都比較小,應(yīng)該是隨機初始化參數(shù)的影響 N, D, H1, H2, C = 2, 15, 20, 30, 10 X = np.random.randn(N, D) y = np.random.randint(C, size=(N,))for reg in [0, 3.14,0.02]:print 'Running check with reg = ', regmodel = FullyConnectedNet([H1, H2], input_dim=D, num_classes=C,reg=reg, weight_scale=5e-2, dtype=np.float64)loss, grads = model.loss(X, y)print 'Initial loss: ', lossfor name in sorted(grads):f = lambda _: model.loss(X, y)[0]grad_num = eval_numerical_gradient(f, model.params[name], verbose=False, h=1e-5)print '%s relative error: %.2e' % (name, rel_error(grad_num, grads[name])) Running check with reg = 0 Initial loss: 2.29966459663 W1 relative error: 2.92e-07 W2 relative error: 2.17e-05 W3 relative error: 4.38e-08 b1 relative error: 3.54e-08 b2 relative error: 1.45e-08 b3 relative error: 1.31e-10 Running check with reg = 3.14 Initial loss: 6.71836699258 W1 relative error: 2.65e-07 W2 relative error: 2.28e-07 W3 relative error: 3.79e-06 b1 relative error: 7.94e-09 b2 relative error: 1.73e-08 b3 relative error: 2.05e-10 Running check with reg = 0.02 Initial loss: 2.32843212504 W1 relative error: 1.19e-07 W2 relative error: 1.47e-06 W3 relative error: 8.67e-06 b1 relative error: 2.08e-08 b2 relative error: 1.21e-02 b3 relative error: 1.39e-10

As another sanity check, make sure you can overfit a small dataset of 50 images. First we will try a three-layer network with 100 units in each hidden layer. You will need to tweak the learning rate and initialization scale, but you should be able to overfit and achieve 100% training accuracy within 20 epochs.

# TODO: Use a three-layer Net to overfit 50 training examples.num_train = 50 small_data = {'X_train': data['X_train'][:num_train],'y_train': data['y_train'][:num_train],'X_val': data['X_val'],'y_val': data['y_val'], }#weight_scale = 1e-2 #learning_rate = 1e-4 weight_scale = 4e-2 learning_rate = 1e-3 model = FullyConnectedNet([100, 100],weight_scale=weight_scale, dtype=np.float64) solver = Solver(model, small_data,print_every=10, num_epochs=20, batch_size=25,update_rule='sgd',optim_config={'learning_rate': learning_rate,}) solver.train()plt.plot(solver.loss_history, 'o') plt.title('Training loss history') plt.xlabel('Iteration') plt.ylabel('Training loss') plt.show() (Iteration 1 / 40) loss: 10.016980 (Epoch 0 / 20) train acc: 0.260000; val_acc: 0.110000 (Epoch 1 / 20) train acc: 0.280000; val_acc: 0.131000 (Epoch 2 / 20) train acc: 0.380000; val_acc: 0.130000 (Epoch 3 / 20) train acc: 0.540000; val_acc: 0.114000 (Epoch 4 / 20) train acc: 0.800000; val_acc: 0.110000 (Epoch 5 / 20) train acc: 0.880000; val_acc: 0.121000 (Iteration 11 / 40) loss: 0.474159 (Epoch 6 / 20) train acc: 0.940000; val_acc: 0.136000 (Epoch 7 / 20) train acc: 0.920000; val_acc: 0.143000 (Epoch 8 / 20) train acc: 1.000000; val_acc: 0.141000 (Epoch 9 / 20) train acc: 1.000000; val_acc: 0.140000 (Epoch 10 / 20) train acc: 1.000000; val_acc: 0.138000 (Iteration 21 / 40) loss: 0.049274 (Epoch 11 / 20) train acc: 1.000000; val_acc: 0.139000 (Epoch 12 / 20) train acc: 1.000000; val_acc: 0.141000 (Epoch 13 / 20) train acc: 1.000000; val_acc: 0.142000 (Epoch 14 / 20) train acc: 1.000000; val_acc: 0.141000 (Epoch 15 / 20) train acc: 1.000000; val_acc: 0.141000 (Iteration 31 / 40) loss: 0.011080 (Epoch 16 / 20) train acc: 1.000000; val_acc: 0.139000 (Epoch 17 / 20) train acc: 1.000000; val_acc: 0.138000 (Epoch 18 / 20) train acc: 1.000000; val_acc: 0.138000 (Epoch 19 / 20) train acc: 1.000000; val_acc: 0.134000 (Epoch 20 / 20) train acc: 1.000000; val_acc: 0.13300

Now try to use a five-layer network with 100 units on each layer to overfit 50 training examples. Again you will have to adjust the learning rate and weight initialization, but you should be able to achieve 100% training accuracy within 20 epochs.

# TODO: Use a five-layer Net to overfit 50 training examples.num_train = 50 small_data = {'X_train': data['X_train'][:num_train],'y_train': data['y_train'][:num_train],'X_val': data['X_val'],'y_val': data['y_val'], }# learning_rate = 1e-3 # weight_scale = 1e-5 learning_rate = 1e-3 weight_scale = 6e-2 model = FullyConnectedNet([100, 100, 100, 100],weight_scale=weight_scale, dtype=np.float64) solver = Solver(model, small_data,print_every=10, num_epochs=20, batch_size=25,update_rule='sgd',optim_config={'learning_rate': learning_rate,}) solver.train()plt.plot(solver.loss_history, 'o') plt.title('Training loss history') plt.xlabel('Iteration') plt.ylabel('Training loss') plt.show() (Iteration 1 / 40) loss: 8.242625 (Epoch 0 / 20) train acc: 0.040000; val_acc: 0.108000 (Epoch 1 / 20) train acc: 0.180000; val_acc: 0.119000 (Epoch 2 / 20) train acc: 0.260000; val_acc: 0.126000 (Epoch 3 / 20) train acc: 0.480000; val_acc: 0.116000 (Epoch 4 / 20) train acc: 0.500000; val_acc: 0.110000 (Epoch 5 / 20) train acc: 0.600000; val_acc: 0.114000 (Iteration 11 / 40) loss: 1.805009 (Epoch 6 / 20) train acc: 0.800000; val_acc: 0.113000 (Epoch 7 / 20) train acc: 0.860000; val_acc: 0.108000 (Epoch 8 / 20) train acc: 0.920000; val_acc: 0.116000 (Epoch 9 / 20) train acc: 0.960000; val_acc: 0.113000 (Epoch 10 / 20) train acc: 0.960000; val_acc: 0.116000 (Iteration 21 / 40) loss: 0.137192 (Epoch 11 / 20) train acc: 0.980000; val_acc: 0.113000 (Epoch 12 / 20) train acc: 0.980000; val_acc: 0.118000 (Epoch 13 / 20) train acc: 0.980000; val_acc: 0.118000 (Epoch 14 / 20) train acc: 0.980000; val_acc: 0.118000 (Epoch 15 / 20) train acc: 0.980000; val_acc: 0.118000 (Iteration 31 / 40) loss: 0.084054 (Epoch 16 / 20) train acc: 1.000000; val_acc: 0.118000 (Epoch 17 / 20) train acc: 1.000000; val_acc: 0.113000 (Epoch 18 / 20) train acc: 1.000000; val_acc: 0.115000 (Epoch 19 / 20) train acc: 1.000000; val_acc: 0.118000 (Epoch 20 / 20) train acc: 1.000000; val_acc: 0.119000

Inline question:

Did you notice anything about the comparative difficulty of training the three-layer net vs training the five layer net?

Answer:

training five-layer net need bigger weight_scale since it has deeper net so five-layer net’s weights get higher probablity to decrease to zero.
As five-layer net initialize weights with higher weight scale, so it needs bigger learning rate.
three-layer net is more robust than five-layer net.
5層網(wǎng)絡(luò)比三層網(wǎng)絡(luò)更深,所以計算過程中的值越來越小vanish現(xiàn)象更嚴(yán)重,所以需要講weight scale調(diào)大,因為weight scale調(diào)大了,所以同樣條件下,學(xué)習(xí)率也要調(diào)大才能在同樣步驟內(nèi)更好的訓(xùn)練網(wǎng)絡(luò).5層網(wǎng)絡(luò)比三層更敏感和脆弱.
其實不太懂他想問啥,感覺很容易就調(diào)到了100%

Update rules

So far we have used vanilla stochastic gradient descent (SGD) as our update rule. More sophisticated update rules can make it easier to train deep networks. We will implement a few of the most commonly used update rules and compare them to vanilla SGD.

SGD+Momentum

Stochastic gradient descent with momentum is a widely used update rule that tends to make deep networks converge faster than vanilla stochstic gradient descent.

Open the file cs231n/optim.py and read the documentation at the top of the file to make sure you understand the API. Implement the SGD+momentum update rule in the function sgd_momentum and run the following to check your implementation. You should see errors less than 1e-8.

from cs231n.optim import sgd_momentumN, D = 4, 5 w = np.linspace(-0.4, 0.6, num=N*D).reshape(N, D) dw = np.linspace(-0.6, 0.4, num=N*D).reshape(N, D) v = np.linspace(0.6, 0.9, num=N*D).reshape(N, D)config = {'learning_rate': 1e-3, 'velocity': v} next_w, _ = sgd_momentum(w, dw, config=config)expected_next_w = np.asarray([[ 0.1406, 0.20738947, 0.27417895, 0.34096842, 0.40775789],[ 0.47454737, 0.54133684, 0.60812632, 0.67491579, 0.74170526],[ 0.80849474, 0.87528421, 0.94207368, 1.00886316, 1.07565263],[ 1.14244211, 1.20923158, 1.27602105, 1.34281053, 1.4096 ]]) expected_velocity = np.asarray([[ 0.5406, 0.55475789, 0.56891579, 0.58307368, 0.59723158],[ 0.61138947, 0.62554737, 0.63970526, 0.65386316, 0.66802105],[ 0.68217895, 0.69633684, 0.71049474, 0.72465263, 0.73881053],[ 0.75296842, 0.76712632, 0.78128421, 0.79544211, 0.8096 ]])print 'next_w error: ', rel_error(next_w, expected_next_w) print 'velocity error: ', rel_error(expected_velocity, config['velocity']) next_w error: 8.88234703351e-09 velocity error: 4.26928774328e-09

Once you have done so, run the following to train a six-layer network with both SGD and SGD+momentum. You should see the SGD+momentum update rule converge faster.

num_train = 4000 small_data = {'X_train': data['X_train'][:num_train],'y_train': data['y_train'][:num_train],'X_val': data['X_val'],'y_val': data['y_val'], }solvers = {}for update_rule in ['sgd', 'sgd_momentum']:print 'running with ', update_rulemodel = FullyConnectedNet([100, 100, 100, 100, 100], weight_scale=5e-2)solver = Solver(model, small_data,num_epochs=5, batch_size=100,update_rule=update_rule,optim_config={'learning_rate': 1e-2,},verbose=True)solvers[update_rule] = solversolver.train()printplt.subplot(3, 1, 1) plt.title('Training loss') plt.xlabel('Iteration')plt.subplot(3, 1, 2) plt.title('Training accuracy') plt.xlabel('Epoch')plt.subplot(3, 1, 3) plt.title('Validation accuracy') plt.xlabel('Epoch')for update_rule, solver in solvers.iteritems():plt.subplot(3, 1, 1)plt.plot(solver.loss_history, 'o', label=update_rule)plt.subplot(3, 1, 2)plt.plot(solver.train_acc_history, '-o', label=update_rule)plt.subplot(3, 1, 3)plt.plot(solver.val_acc_history, '-o', label=update_rule)for i in [1, 2, 3]:plt.subplot(3, 1, i)plt.legend(loc='upper center', ncol=4) plt.gcf().set_size_inches(15, 15) plt.show() running with sgd (Iteration 1 / 200) loss: 2.482962 (Epoch 0 / 5) train acc: 0.103000; val_acc: 0.116000 (Iteration 11 / 200) loss: 2.189759 (Iteration 21 / 200) loss: 2.118428 (Iteration 31 / 200) loss: 2.146263 (Epoch 1 / 5) train acc: 0.234000; val_acc: 0.231000 (Iteration 41 / 200) loss: 2.136812 (Iteration 51 / 200) loss: 2.058494 (Iteration 61 / 200) loss: 2.010344 (Iteration 71 / 200) loss: 1.935777 (Epoch 2 / 5) train acc: 0.341000; val_acc: 0.278000 (Iteration 81 / 200) loss: 1.848450 (Iteration 91 / 200) loss: 1.890258 (Iteration 101 / 200) loss: 1.851392 (Iteration 111 / 200) loss: 1.890978 (Epoch 3 / 5) train acc: 0.364000; val_acc: 0.316000 (Iteration 121 / 200) loss: 1.674997 (Iteration 131 / 200) loss: 1.753746 (Iteration 141 / 200) loss: 1.677929 (Iteration 151 / 200) loss: 1.651327 (Epoch 4 / 5) train acc: 0.378000; val_acc: 0.296000 (Iteration 161 / 200) loss: 1.707673 (Iteration 171 / 200) loss: 1.771841 (Iteration 181 / 200) loss: 1.650195 (Iteration 191 / 200) loss: 1.671102 (Epoch 5 / 5) train acc: 0.414000; val_acc: 0.347000running with sgd_momentum (Iteration 1 / 200) loss: 2.779826 (Epoch 0 / 5) train acc: 0.080000; val_acc: 0.090000 (Iteration 11 / 200) loss: 2.151418 (Iteration 21 / 200) loss: 2.005661 (Iteration 31 / 200) loss: 2.018002 (Epoch 1 / 5) train acc: 0.334000; val_acc: 0.327000 (Iteration 41 / 200) loss: 1.914837 (Iteration 51 / 200) loss: 1.745527 (Iteration 61 / 200) loss: 1.829091 (Iteration 71 / 200) loss: 1.646542 (Epoch 2 / 5) train acc: 0.354000; val_acc: 0.311000 (Iteration 81 / 200) loss: 1.561354 (Iteration 91 / 200) loss: 1.687099 (Iteration 101 / 200) loss: 1.644848 (Iteration 111 / 200) loss: 1.604384 (Epoch 3 / 5) train acc: 0.447000; val_acc: 0.334000 (Iteration 121 / 200) loss: 1.727682 (Iteration 131 / 200) loss: 1.569907 (Iteration 141 / 200) loss: 1.565606 (Iteration 151 / 200) loss: 1.674119 (Epoch 4 / 5) train acc: 0.466000; val_acc: 0.390000 (Iteration 161 / 200) loss: 1.364019 (Iteration 171 / 200) loss: 1.449550 (Iteration 181 / 200) loss: 1.510401 (Iteration 191 / 200) loss: 1.353840 (Epoch 5 / 5) train acc: 0.514000; val_acc: 0.368000

RMSProp and Adam

RMSProp [1] and Adam [2] are update rules that set per-parameter learning rates by using a running average of the second moments of gradients.

In the file cs231n/optim.py, implement the RMSProp update rule in the rmsprop function and implement the Adam update rule in the adam function, and check your implementations using the tests below.

[1] Tijmen Tieleman and Geoffrey Hinton. “Lecture 6.5-rmsprop: Divide the gradient by a running average of its recent magnitude.” COURSERA: Neural Networks for Machine Learning 4 (2012).

[2] Diederik Kingma and Jimmy Ba, “Adam: A Method for Stochastic Optimization”, ICLR 2015.

# Test RMSProp implementation; you should see errors less than 1e-7 from cs231n.optim import rmspropN, D = 4, 5 w = np.linspace(-0.4, 0.6, num=N*D).reshape(N, D) dw = np.linspace(-0.6, 0.4, num=N*D).reshape(N, D) cache = np.linspace(0.6, 0.9, num=N*D).reshape(N, D)config = {'learning_rate': 1e-2, 'cache': cache} next_w, _ = rmsprop(w, dw, config=config)expected_next_w = np.asarray([[-0.39223849, -0.34037513, -0.28849239, -0.23659121, -0.18467247],[-0.132737, -0.08078555, -0.02881884, 0.02316247, 0.07515774],[ 0.12716641, 0.17918792, 0.23122175, 0.28326742, 0.33532447],[ 0.38739248, 0.43947102, 0.49155973, 0.54365823, 0.59576619]]) expected_cache = np.asarray([[ 0.5976, 0.6126277, 0.6277108, 0.64284931, 0.65804321],[ 0.67329252, 0.68859723, 0.70395734, 0.71937285, 0.73484377],[ 0.75037008, 0.7659518, 0.78158892, 0.79728144, 0.81302936],[ 0.82883269, 0.84469141, 0.86060554, 0.87657507, 0.8926 ]])print 'next_w error: ', rel_error(expected_next_w, next_w) print 'cache error: ', rel_error(expected_cache, config['cache']) next_w error: 9.50264522989e-08 cache error: 2.64779558072e-09 # Test Adam implementation; you should see errors around 1e-7 or less from cs231n.optim import adamN, D = 4, 5 w = np.linspace(-0.4, 0.6, num=N*D).reshape(N, D) dw = np.linspace(-0.6, 0.4, num=N*D).reshape(N, D) m = np.linspace(0.6, 0.9, num=N*D).reshape(N, D) v = np.linspace(0.7, 0.5, num=N*D).reshape(N, D)config = {'learning_rate': 1e-2, 'm': m, 'v': v, 't': 5} next_w, _ = adam(w, dw, config=config)expected_next_w = np.asarray([[-0.40094747, -0.34836187, -0.29577703, -0.24319299, -0.19060977],[-0.1380274, -0.08544591, -0.03286534, 0.01971428, 0.0722929],[ 0.1248705, 0.17744702, 0.23002243, 0.28259667, 0.33516969],[ 0.38774145, 0.44031188, 0.49288093, 0.54544852, 0.59801459]]) expected_v = np.asarray([[ 0.69966, 0.68908382, 0.67851319, 0.66794809, 0.65738853,],[ 0.64683452, 0.63628604, 0.6257431, 0.61520571, 0.60467385,],[ 0.59414753, 0.58362676, 0.57311152, 0.56260183, 0.55209767,],[ 0.54159906, 0.53110598, 0.52061845, 0.51013645, 0.49966, ]]) expected_m = np.asarray([[ 0.48, 0.49947368, 0.51894737, 0.53842105, 0.55789474],[ 0.57736842, 0.59684211, 0.61631579, 0.63578947, 0.65526316],[ 0.67473684, 0.69421053, 0.71368421, 0.73315789, 0.75263158],[ 0.77210526, 0.79157895, 0.81105263, 0.83052632, 0.85 ]])print 'next_w error: ', rel_error(expected_next_w, next_w) print 'v error: ', rel_error(expected_v, config['v']) print 'm error: ', rel_error(expected_m, config['m']) next_w error: 1.13956917985e-07 v error: 4.20831403811e-09 m error: 4.21496319311e-09

Once you have debugged your RMSProp and Adam implementations, run the following to train a pair of deep networks using these new update rules:

learning_rates = {'rmsprop': 1e-4, 'adam': 1e-3} for update_rule in ['adam', 'rmsprop']:print 'running with ', update_rulemodel = FullyConnectedNet([100, 100, 100, 100, 100], weight_scale=5e-2)solver = Solver(model, small_data,num_epochs=5, batch_size=100,update_rule=update_rule,optim_config={'learning_rate': learning_rates[update_rule]},verbose=True)solvers[update_rule] = solversolver.train()printplt.subplot(3, 1, 1) plt.title('Training loss') plt.xlabel('Iteration')plt.subplot(3, 1, 2) plt.title('Training accuracy') plt.xlabel('Epoch')plt.subplot(3, 1, 3) plt.title('Validation accuracy') plt.xlabel('Epoch')for update_rule, solver in solvers.iteritems():plt.subplot(3, 1, 1)plt.plot(solver.loss_history, 'o', label=update_rule)plt.subplot(3, 1, 2)plt.plot(solver.train_acc_history, '-o', label=update_rule)plt.subplot(3, 1, 3)plt.plot(solver.val_acc_history, '-o', label=update_rule)for i in [1, 2, 3]:plt.subplot(3, 1, i)plt.legend(loc='upper center', ncol=4) plt.gcf().set_size_inches(15, 15) plt.show() running with adam (Iteration 1 / 200) loss: 2.764716 (Epoch 0 / 5) train acc: 0.128000; val_acc: 0.124000 (Iteration 11 / 200) loss: 2.040898 (Iteration 21 / 200) loss: 1.774376 (Iteration 31 / 200) loss: 1.847699 (Epoch 1 / 5) train acc: 0.376000; val_acc: 0.306000 (Iteration 41 / 200) loss: 1.926563 (Iteration 51 / 200) loss: 1.720461 (Iteration 61 / 200) loss: 1.537673 (Iteration 71 / 200) loss: 1.603966 (Epoch 2 / 5) train acc: 0.422000; val_acc: 0.313000 (Iteration 81 / 200) loss: 1.602464 (Iteration 91 / 200) loss: 1.514707 (Iteration 101 / 200) loss: 1.341900 (Iteration 111 / 200) loss: 1.671358 (Epoch 3 / 5) train acc: 0.467000; val_acc: 0.353000 (Iteration 121 / 200) loss: 1.638983 (Iteration 131 / 200) loss: 1.433005 (Iteration 141 / 200) loss: 1.259506 (Iteration 151 / 200) loss: 1.510506 (Epoch 4 / 5) train acc: 0.552000; val_acc: 0.360000 (Iteration 161 / 200) loss: 1.234063 (Iteration 171 / 200) loss: 1.344069 (Iteration 181 / 200) loss: 1.179093 (Iteration 191 / 200) loss: 1.477335 (Epoch 5 / 5) train acc: 0.590000; val_acc: 0.375000running with rmsprop (Iteration 1 / 200) loss: 2.498833 (Epoch 0 / 5) train acc: 0.164000; val_acc: 0.133000 (Iteration 11 / 200) loss: 2.099360 (Iteration 21 / 200) loss: 1.879164 (Iteration 31 / 200) loss: 1.856589 (Epoch 1 / 5) train acc: 0.367000; val_acc: 0.285000 (Iteration 41 / 200) loss: 1.831192 (Iteration 51 / 200) loss: 1.911368 (Iteration 61 / 200) loss: 1.693546 (Iteration 71 / 200) loss: 1.745929 (Epoch 2 / 5) train acc: 0.447000; val_acc: 0.339000 (Iteration 81 / 200) loss: 1.748112 (Iteration 91 / 200) loss: 1.613525 (Iteration 101 / 200) loss: 1.635379 (Iteration 111 / 200) loss: 1.491368 (Epoch 3 / 5) train acc: 0.467000; val_acc: 0.361000 (Iteration 121 / 200) loss: 1.372249 (Iteration 131 / 200) loss: 1.678353 (Iteration 141 / 200) loss: 1.521616 (Iteration 151 / 200) loss: 1.441466 (Epoch 4 / 5) train acc: 0.514000; val_acc: 0.339000 (Iteration 161 / 200) loss: 1.619760 (Iteration 171 / 200) loss: 1.432048 (Iteration 181 / 200) loss: 1.684465 (Iteration 191 / 200) loss: 1.532590 (Epoch 5 / 5) train acc: 0.528000; val_acc: 0.370000

Train a good model!

Train the best fully-connected model that you can on CIFAR-10, storing your best model in the best_model variable. We require you to get at least 50% accuracy on the validation set using a fully-connected net.

If you are careful it should be possible to get accuracies above 55%, but we don’t require it for this part and won’t assign extra credit for doing so. Later in the assignment we will ask you to train the best convolutional network that you can on CIFAR-10, and we would prefer that you spend your effort working on convolutional nets rather than fully-connected nets.

You might find it useful to complete the BatchNormalization.ipynb and Dropout.ipynb notebooks before completing this part, since those techniques can help you train powerful models.

best_model = None best_val_acc = 0 ################################################################################ # TODO: Train the best FullyConnectedNet that you can on CIFAR-10. You might # # batch normalization and dropout useful. Store your best model in the # # best_model variable. # ################################################################################ reg_choice = [0, 0.02, 0.05] #dropout_choice = [0.25, 0.5] #netstructure_choice = [ # [100,100], # [100, 100, 100], # [50, 50, 50, 50, 50, 50, 50]] dropout_choice = [0] netstructure_choice = [[100, 100]] for hidden_dim in netstructure_choice:for dropout in dropout_choice:model = FullyConnectedNet(hidden_dim, reg=0, weight_scale=5e-2, dtype=np.float64,use_batchnorm=True, dropout=dropout)solver = Solver(model, data,num_epochs=20, batch_size=100,update_rule='adam',optim_config={'learning_rate': 5e-3},print_every=100,lr_decay=0.95,verbose=True)solver.train() if solver.best_val_acc>best_val_acc:best_model = modelprint plt.subplot(2, 1, 1)plt.title('Training loss')plt.plot(solver.loss_history, 'o')plt.xlabel('Iteration')plt.subplot(2, 1, 2)plt.title('Accuracy')plt.plot(solver.train_acc_history, '-o', label='train')plt.plot(solver.val_acc_history, '-o', label='val')plt.plot([0.5] * len(solver.val_acc_history), 'k--')plt.xlabel('Epoch')plt.legend(loc='lower right')plt.gcf().set_size_inches(15, 12)plt.show() ################################################################################ # END OF YOUR CODE # ################################################################################ (Iteration 1 / 9800) loss: 2.263781 (Epoch 0 / 20) train acc: 0.179000; val_acc: 0.180000 (Iteration 101 / 9800) loss: 1.624115 (Iteration 201 / 9800) loss: 1.467661 (Iteration 301 / 9800) loss: 1.591997 (Iteration 401 / 9800) loss: 1.432411 (Epoch 1 / 20) train acc: 0.487000; val_acc: 0.491000 (Iteration 501 / 9800) loss: 1.241822 (Iteration 601 / 9800) loss: 1.546403 (Iteration 701 / 9800) loss: 1.411293 (Iteration 801 / 9800) loss: 1.375881 (Iteration 901 / 9800) loss: 1.242919 (Epoch 2 / 20) train acc: 0.520000; val_acc: 0.495000 (Iteration 1001 / 9800) loss: 1.316806 (Iteration 1101 / 9800) loss: 1.340302 (Iteration 1201 / 9800) loss: 1.335680 (Iteration 1301 / 9800) loss: 1.346994 (Iteration 1401 / 9800) loss: 1.156202 (Epoch 3 / 20) train acc: 0.553000; val_acc: 0.509000 (Iteration 1501 / 9800) loss: 1.111737 (Iteration 1601 / 9800) loss: 1.339837 (Iteration 1701 / 9800) loss: 1.218292 (Iteration 1801 / 9800) loss: 1.344992 (Iteration 1901 / 9800) loss: 1.198010 (Epoch 4 / 20) train acc: 0.574000; val_acc: 0.515000 (Iteration 2001 / 9800) loss: 1.185471 (Iteration 2101 / 9800) loss: 1.245266 (Iteration 2201 / 9800) loss: 1.046663 (Iteration 2301 / 9800) loss: 1.128248 (Iteration 2401 / 9800) loss: 1.100717 (Epoch 5 / 20) train acc: 0.626000; val_acc: 0.529000 (Iteration 2501 / 9800) loss: 1.076717 (Iteration 2601 / 9800) loss: 1.154111 (Iteration 2701 / 9800) loss: 1.077080 (Iteration 2801 / 9800) loss: 0.998500 (Iteration 2901 / 9800) loss: 1.051188 (Epoch 6 / 20) train acc: 0.590000; val_acc: 0.536000 (Iteration 3001 / 9800) loss: 1.004974 (Iteration 3101 / 9800) loss: 1.124638 (Iteration 3201 / 9800) loss: 1.073654 (Iteration 3301 / 9800) loss: 0.970181 (Iteration 3401 / 9800) loss: 1.115142 (Epoch 7 / 20) train acc: 0.630000; val_acc: 0.537000 (Iteration 3501 / 9800) loss: 0.869317 (Iteration 3601 / 9800) loss: 1.109377 (Iteration 3701 / 9800) loss: 1.037178 (Iteration 3801 / 9800) loss: 0.947001 (Iteration 3901 / 9800) loss: 0.989016 (Epoch 8 / 20) train acc: 0.633000; val_acc: 0.529000 (Iteration 4001 / 9800) loss: 0.949825 (Iteration 4101 / 9800) loss: 1.007835 (Iteration 4201 / 9800) loss: 0.894922 (Iteration 4301 / 9800) loss: 1.134644 (Iteration 4401 / 9800) loss: 0.932514 (Epoch 9 / 20) train acc: 0.609000; val_acc: 0.541000 (Iteration 4501 / 9800) loss: 1.117945 (Iteration 4601 / 9800) loss: 1.066002 (Iteration 4701 / 9800) loss: 0.858422 (Iteration 4801 / 9800) loss: 0.799150 (Epoch 10 / 20) train acc: 0.692000; val_acc: 0.527000 (Iteration 4901 / 9800) loss: 1.027588 (Iteration 5001 / 9800) loss: 0.903380 (Iteration 5101 / 9800) loss: 0.950514 (Iteration 5201 / 9800) loss: 0.891470 (Iteration 5301 / 9800) loss: 0.947976 (Epoch 11 / 20) train acc: 0.685000; val_acc: 0.523000 (Iteration 5401 / 9800) loss: 1.161916 (Iteration 5501 / 9800) loss: 1.039629 (Iteration 5601 / 9800) loss: 0.895261 (Iteration 5701 / 9800) loss: 0.855530 (Iteration 5801 / 9800) loss: 0.723047 (Epoch 12 / 20) train acc: 0.730000; val_acc: 0.516000 (Iteration 5901 / 9800) loss: 1.015861 (Iteration 6001 / 9800) loss: 0.921310 (Iteration 6101 / 9800) loss: 1.055507 (Iteration 6201 / 9800) loss: 0.917648 (Iteration 6301 / 9800) loss: 0.767686 (Epoch 13 / 20) train acc: 0.699000; val_acc: 0.543000 (Iteration 6401 / 9800) loss: 1.170058 (Iteration 6501 / 9800) loss: 0.810596 (Iteration 6601 / 9800) loss: 0.920641 (Iteration 6701 / 9800) loss: 0.725889 (Iteration 6801 / 9800) loss: 0.931281 (Epoch 14 / 20) train acc: 0.667000; val_acc: 0.531000 (Iteration 6901 / 9800) loss: 0.701817 (Iteration 7001 / 9800) loss: 0.788107 (Iteration 7101 / 9800) loss: 0.818656 (Iteration 7201 / 9800) loss: 0.888433 (Iteration 7301 / 9800) loss: 0.728136 (Epoch 15 / 20) train acc: 0.695000; val_acc: 0.530000 (Iteration 7401 / 9800) loss: 0.857501 (Iteration 7501 / 9800) loss: 0.867369 (Iteration 7601 / 9800) loss: 0.814501 (Iteration 7701 / 9800) loss: 0.763123 (Iteration 7801 / 9800) loss: 0.835519 (Epoch 16 / 20) train acc: 0.711000; val_acc: 0.528000 (Iteration 7901 / 9800) loss: 0.861891 (Iteration 8001 / 9800) loss: 0.667957 (Iteration 8101 / 9800) loss: 0.678417 (Iteration 8201 / 9800) loss: 0.776296 (Iteration 8301 / 9800) loss: 0.846255 (Epoch 17 / 20) train acc: 0.718000; val_acc: 0.532000 (Iteration 8401 / 9800) loss: 0.821841 (Iteration 8501 / 9800) loss: 0.737560 (Iteration 8601 / 9800) loss: 0.734345 (Iteration 8701 / 9800) loss: 0.789014 (Iteration 8801 / 9800) loss: 0.829744 (Epoch 18 / 20) train acc: 0.745000; val_acc: 0.530000 (Iteration 8901 / 9800) loss: 0.688820 (Iteration 9001 / 9800) loss: 0.726195 (Iteration 9101 / 9800) loss: 0.922960 (Iteration 9201 / 9800) loss: 0.791910 (Iteration 9301 / 9800) loss: 0.891499 (Epoch 19 / 20) train acc: 0.728000; val_acc: 0.522000 (Iteration 9401 / 9800) loss: 0.731820 (Iteration 9501 / 9800) loss: 0.721811 (Iteration 9601 / 9800) loss: 0.600602 (Iteration 9701 / 9800) loss: 0.689157 (Epoch 20 / 20) train acc: 0.739000; val_acc: 0.521000

Test you model

Run your best model on the validation and test sets. You should achieve above 50% accuracy on the validation set.

y_test_pred = np.argmax(best_model.loss(data['X_test']), axis=1) y_val_pred = np.argmax(best_model.loss(data['X_val']), axis=1) print 'Validation set accuracy: ', (y_val_pred == data['y_val']).mean() print 'Test set accuracy: ', (y_test_pred == data['y_test']).mean() Validation set accuracy: 0.554 Test set accuracy: 0.545

總結(jié)

以上是生活随笔為你收集整理的cs231n:assignment2——Q1: Fully-connected Neural Network的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

久久97精品久久久久久久不卡 | 少妇性荡欲午夜性开放视频剧场 | 国产国语老龄妇女a片 | 国内精品一区二区三区不卡 | 亚洲の无码国产の无码步美 | 成人影院yy111111在线观看 | 亚洲欧洲日本综合aⅴ在线 | 中文字幕人妻丝袜二区 | 亚洲 日韩 欧美 成人 在线观看 | 免费国产成人高清在线观看网站 | 日韩少妇白浆无码系列 | 天下第一社区视频www日本 | 亚洲天堂2017无码中文 | 国产精品丝袜黑色高跟鞋 | 国产成人一区二区三区别 | 中文无码成人免费视频在线观看 | 波多野结衣一区二区三区av免费 | 日韩精品乱码av一区二区 | 欧美日韩色另类综合 | 永久黄网站色视频免费直播 | 乱码午夜-极国产极内射 | 国产真实夫妇视频 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产麻豆精品一区二区三区v视界 | 亚洲欧美中文字幕5发布 | 国产人妻久久精品二区三区老狼 | 亚洲成av人片天堂网无码】 | 国产乱码精品一品二品 | 亚洲一区av无码专区在线观看 | 丁香啪啪综合成人亚洲 | 99精品久久毛片a片 | 日本饥渴人妻欲求不满 | 国产精品va在线观看无码 | 7777奇米四色成人眼影 | 一本久道高清无码视频 | 亚洲欧美日韩国产精品一区二区 | 九月婷婷人人澡人人添人人爽 | 色诱久久久久综合网ywww | 少妇一晚三次一区二区三区 | 国产精品久久久久9999小说 | 给我免费的视频在线观看 | 无码精品国产va在线观看dvd | 中文字幕人妻无码一夲道 | 免费网站看v片在线18禁无码 | 国产手机在线αⅴ片无码观看 | 久久99精品久久久久久 | 日韩欧美成人免费观看 | 无人区乱码一区二区三区 | 国内丰满熟女出轨videos | 免费无码的av片在线观看 | 麻豆国产人妻欲求不满谁演的 | 精品一区二区三区无码免费视频 | 一个人看的视频www在线 | a片在线免费观看 | 成 人 网 站国产免费观看 | 中国大陆精品视频xxxx | 亚洲精品成a人在线观看 | 一区二区传媒有限公司 | 97久久国产亚洲精品超碰热 | 高清无码午夜福利视频 | 偷窥日本少妇撒尿chinese | 伊人久久婷婷五月综合97色 | 在线看片无码永久免费视频 | 亚洲a无码综合a国产av中文 | 亚洲日韩av一区二区三区四区 | 乱人伦中文视频在线观看 | 最新国产麻豆aⅴ精品无码 | 国产熟妇另类久久久久 | 亚洲色大成网站www国产 | √天堂中文官网8在线 | 久久精品国产一区二区三区 | 久久亚洲日韩精品一区二区三区 | 久久伊人色av天堂九九小黄鸭 | 网友自拍区视频精品 | 国产午夜福利100集发布 | 久久精品丝袜高跟鞋 | 久久97精品久久久久久久不卡 | 女人被爽到呻吟gif动态图视看 | 国产 精品 自在自线 | 无套内谢的新婚少妇国语播放 | 国产成人精品无码播放 | 日韩欧美中文字幕公布 | 久久aⅴ免费观看 | 成在人线av无码免费 | 天干天干啦夜天干天2017 | 国产一区二区不卡老阿姨 | 又紧又大又爽精品一区二区 | 未满小14洗澡无码视频网站 | 国产午夜手机精彩视频 | 又粗又大又硬又长又爽 | 欧美精品无码一区二区三区 | 精品国产精品久久一区免费式 | 国产一区二区三区影院 | 久久久av男人的天堂 | 午夜福利电影 | 麻花豆传媒剧国产免费mv在线 | 亚洲一区二区三区在线观看网站 | 欧美国产日韩久久mv | 国产激情无码一区二区 | 中文精品无码中文字幕无码专区 | аⅴ资源天堂资源库在线 | 国产人妻人伦精品 | 欧美第一黄网免费网站 | 国产精品美女久久久久av爽李琼 | 一本久道久久综合狠狠爱 | 国产肉丝袜在线观看 | 中文字幕人妻丝袜二区 | 免费无码午夜福利片69 | 欧美zoozzooz性欧美 | 天天做天天爱天天爽综合网 | 日韩精品a片一区二区三区妖精 | 国产精品沙发午睡系列 | 久久99久久99精品中文字幕 | 伊人色综合久久天天小片 | 丁香花在线影院观看在线播放 | 亚洲人成网站免费播放 | 丰满肥臀大屁股熟妇激情视频 | 人人妻人人澡人人爽人人精品 | 欧美高清在线精品一区 | 国产人妻人伦精品1国产丝袜 | 麻豆国产人妻欲求不满谁演的 | 男女下面进入的视频免费午夜 | 国产成人午夜福利在线播放 | 清纯唯美经典一区二区 | av在线亚洲欧洲日产一区二区 | 中文字幕乱码亚洲无线三区 | 中文字幕 亚洲精品 第1页 | 国产97人人超碰caoprom | 欧美喷潮久久久xxxxx | 97精品人妻一区二区三区香蕉 | 久久国内精品自在自线 | 中国女人内谢69xxxxxa片 | 国产一区二区三区四区五区加勒比 | 国产乱码精品一品二品 | 野狼第一精品社区 | 国产无遮挡吃胸膜奶免费看 | 无码中文字幕色专区 | а天堂中文在线官网 | 国产精品久久久久7777 | 伊人久久婷婷五月综合97色 | 在线播放免费人成毛片乱码 | 丰满少妇高潮惨叫视频 | 欧美阿v高清资源不卡在线播放 | 真人与拘做受免费视频 | 精品国产一区二区三区av 性色 | 中文字幕无码av波多野吉衣 | 欧美人与牲动交xxxx | 老子影院午夜伦不卡 | 免费国产成人高清在线观看网站 | 久久亚洲国产成人精品性色 | 精品乱码久久久久久久 | 图片小说视频一区二区 | 免费无码午夜福利片69 | 成人试看120秒体验区 | 成人女人看片免费视频放人 | 欧美三级a做爰在线观看 | 国产激情无码一区二区app | 乱人伦人妻中文字幕无码久久网 | 国产成人无码av一区二区 | √天堂资源地址中文在线 | 久久久久久国产精品无码下载 | 久久久亚洲欧洲日产国码αv | 极品尤物被啪到呻吟喷水 | 久久久久亚洲精品中文字幕 | 国产亚洲人成在线播放 | 人妻与老人中文字幕 | 思思久久99热只有频精品66 | 久激情内射婷内射蜜桃人妖 | 亚洲中文字幕在线无码一区二区 | 色五月丁香五月综合五月 | 夜先锋av资源网站 | 亚洲经典千人经典日产 | 欧美大屁股xxxxhd黑色 | 精品一二三区久久aaa片 | 亚洲色欲色欲欲www在线 | 午夜福利一区二区三区在线观看 | 中文无码成人免费视频在线观看 | 久久精品国产99精品亚洲 | 国产三级久久久精品麻豆三级 | 亚洲精品一区国产 | 欧美激情一区二区三区成人 | 亚洲熟妇色xxxxx亚洲 | 女人色极品影院 | 亚洲精品久久久久久一区二区 | 伊人久久婷婷五月综合97色 | 九九在线中文字幕无码 | 无码帝国www无码专区色综合 | 国产色在线 | 国产 | 98国产精品综合一区二区三区 | 日韩精品久久久肉伦网站 | 久久精品人人做人人综合 | 国产一区二区不卡老阿姨 | 蜜桃臀无码内射一区二区三区 | 中文字幕乱码人妻二区三区 | 四虎影视成人永久免费观看视频 | 最近免费中文字幕中文高清百度 | 亚洲爆乳精品无码一区二区三区 | 国产手机在线αⅴ片无码观看 | 丰满少妇弄高潮了www | 日本一卡二卡不卡视频查询 | 亚洲欧美中文字幕5发布 | 99麻豆久久久国产精品免费 | 131美女爱做视频 | 国产精品鲁鲁鲁 | 国内少妇偷人精品视频免费 | 无码一区二区三区在线 | 日韩欧美群交p片內射中文 | 成在人线av无码免观看麻豆 | 人妻中文无码久热丝袜 | 中文字幕人妻丝袜二区 | 两性色午夜视频免费播放 | 99精品视频在线观看免费 | 欧美人与牲动交xxxx | 大地资源中文第3页 | 日本又色又爽又黄的a片18禁 | 久久熟妇人妻午夜寂寞影院 | 日本一区二区更新不卡 | 精品久久久无码中文字幕 | 成人无码影片精品久久久 | 色欲av亚洲一区无码少妇 | 亚洲精品综合五月久久小说 | 少妇一晚三次一区二区三区 | 色婷婷香蕉在线一区二区 | 亚洲欧美精品伊人久久 | 中文亚洲成a人片在线观看 | 国产av久久久久精东av | 国产国产精品人在线视 | 鲁鲁鲁爽爽爽在线视频观看 | 人人妻人人澡人人爽欧美一区 | 日本爽爽爽爽爽爽在线观看免 | 无码纯肉视频在线观看 | 高清国产亚洲精品自在久久 | 欧美性生交活xxxxxdddd | 免费看男女做好爽好硬视频 | 又粗又大又硬又长又爽 | 国产农村乱对白刺激视频 | 久久久久久a亚洲欧洲av冫 | 国产无遮挡吃胸膜奶免费看 | 女人和拘做爰正片视频 | 亚洲精品成a人在线观看 | 日韩欧美中文字幕公布 | 午夜福利一区二区三区在线观看 | 色婷婷综合中文久久一本 | 色狠狠av一区二区三区 | 丰满少妇弄高潮了www | 亚洲日本va午夜在线电影 | 精品国产av色一区二区深夜久久 | 天天摸天天碰天天添 | 黑人巨大精品欧美黑寡妇 | 免费国产成人高清在线观看网站 | 亚洲中文字幕无码一久久区 | 亚洲日本va午夜在线电影 | av无码不卡在线观看免费 | 国产精品人人爽人人做我的可爱 | 伦伦影院午夜理论片 | 亚洲va中文字幕无码久久不卡 | 亚洲精品国产a久久久久久 | 日本欧美一区二区三区乱码 | 一本色道婷婷久久欧美 | 国产香蕉尹人综合在线观看 | 爽爽影院免费观看 | 久久精品一区二区三区四区 | 久久亚洲中文字幕无码 | 大屁股大乳丰满人妻 | 欧美黑人性暴力猛交喷水 | 精品久久综合1区2区3区激情 | 色五月丁香五月综合五月 | 国产办公室秘书无码精品99 | 国产香蕉97碰碰久久人人 | 国产精品亚洲综合色区韩国 | 久久99久久99精品中文字幕 | 成人三级无码视频在线观看 | 麻豆国产97在线 | 欧洲 | 无码av免费一区二区三区试看 | 欧美丰满熟妇xxxx性ppx人交 | 老司机亚洲精品影院无码 | 国产精品免费大片 | 成人精品视频一区二区三区尤物 | 少妇被粗大的猛进出69影院 | 在线a亚洲视频播放在线观看 | 正在播放东北夫妻内射 | 欧美freesex黑人又粗又大 | 色综合久久网 | 全黄性性激高免费视频 | 亚洲欧洲中文日韩av乱码 | 中文字幕无码热在线视频 | 亚洲日韩乱码中文无码蜜桃臀网站 | 扒开双腿吃奶呻吟做受视频 | 午夜精品久久久内射近拍高清 | 国产亚洲精品久久久久久 | 色一情一乱一伦一区二区三欧美 | 国产精品美女久久久网av | 亚洲一区二区观看播放 | 欧美性猛交内射兽交老熟妇 | 无码吃奶揉捏奶头高潮视频 | 精品厕所偷拍各类美女tp嘘嘘 | 国产精品高潮呻吟av久久4虎 | 中文字幕精品av一区二区五区 | 久久天天躁夜夜躁狠狠 | 网友自拍区视频精品 | 久久婷婷五月综合色国产香蕉 | 在教室伦流澡到高潮hnp视频 | 日本www一道久久久免费榴莲 | 波多野结衣一区二区三区av免费 | 国产特级毛片aaaaaa高潮流水 | 亚洲精品久久久久久久久久久 | 欧美国产日韩久久mv | 99久久亚洲精品无码毛片 | 国产精品人人爽人人做我的可爱 | 扒开双腿疯狂进出爽爽爽视频 | 无码精品人妻一区二区三区av | 久久精品女人天堂av免费观看 | 一区二区三区乱码在线 | 欧洲 | 天天拍夜夜添久久精品大 | 久久精品中文字幕一区 | 国产精品亚洲综合色区韩国 | 日韩欧美中文字幕公布 | 无码人妻久久一区二区三区不卡 | 亚洲精品成人av在线 | 国产精品久免费的黄网站 | 亚洲熟妇自偷自拍另类 | 最新国产乱人伦偷精品免费网站 | 精品国产麻豆免费人成网站 | 日韩无套无码精品 | 亚洲无人区午夜福利码高清完整版 | 亚洲一区二区三区播放 | 日产精品99久久久久久 | 亚洲国产精品美女久久久久 | 国产成人综合美国十次 | 无码av最新清无码专区吞精 | 日本精品人妻无码免费大全 | 亚洲一区二区三区香蕉 | 久久精品女人天堂av免费观看 | 97精品国产97久久久久久免费 | 一区二区传媒有限公司 | 国产精品久久久久久亚洲影视内衣 | 国产97人人超碰caoprom | 色欲综合久久中文字幕网 | 亚洲成色在线综合网站 | 中文字幕乱码亚洲无线三区 | 欧美精品无码一区二区三区 | 女人被爽到呻吟gif动态图视看 | 亚洲成av人片在线观看无码不卡 | 妺妺窝人体色www婷婷 | 日本大香伊一区二区三区 | 成年女人永久免费看片 | 国产午夜亚洲精品不卡 | 国产精品久久久av久久久 | 青青青爽视频在线观看 | 理论片87福利理论电影 | 国语自产偷拍精品视频偷 | 粉嫩少妇内射浓精videos | 四虎国产精品一区二区 | 丰满人妻精品国产99aⅴ | 少妇高潮一区二区三区99 | 99久久亚洲精品无码毛片 | 欧美性色19p | 国产人妻精品午夜福利免费 | 日韩人妻系列无码专区 | 日本熟妇乱子伦xxxx | 色爱情人网站 | 欧美黑人乱大交 | 狠狠色色综合网站 | 沈阳熟女露脸对白视频 | 国产色精品久久人妻 | 99久久久无码国产精品免费 | 亚洲成a人一区二区三区 | 亚洲一区二区三区四区 | 亚洲精品国产第一综合99久久 | 精品人妻av区 | 欧美丰满熟妇xxxx | 少妇人妻av毛片在线看 | 无套内射视频囯产 | 人妻插b视频一区二区三区 | 人妻无码久久精品人妻 | 大地资源中文第3页 | 老子影院午夜伦不卡 | 鲁一鲁av2019在线 | 无码成人精品区在线观看 | 久久人妻内射无码一区三区 | 一本久久a久久精品亚洲 | 精品人人妻人人澡人人爽人人 | 无码人妻出轨黑人中文字幕 | 荫蒂被男人添的好舒服爽免费视频 | 色婷婷综合中文久久一本 | 免费网站看v片在线18禁无码 | 日本饥渴人妻欲求不满 | 蜜臀aⅴ国产精品久久久国产老师 | 午夜无码人妻av大片色欲 | 一区二区三区高清视频一 | 亚洲成色www久久网站 | 日韩av无码一区二区三区 | 亚洲精品午夜无码电影网 | 久久婷婷五月综合色国产香蕉 | 在线欧美精品一区二区三区 | 97se亚洲精品一区 | 在线播放亚洲第一字幕 | 国精产品一品二品国精品69xx | 日韩亚洲欧美中文高清在线 | 亚洲aⅴ无码成人网站国产app | 国产精品美女久久久网av | 欧美熟妇另类久久久久久多毛 | 在线观看免费人成视频 | 欧美三级不卡在线观看 | 久久久中文字幕日本无吗 | 亚洲成a人片在线观看日本 | 亚洲精品一区国产 | 成人亚洲精品久久久久软件 | av无码不卡在线观看免费 | 亚洲成av人影院在线观看 | 四虎国产精品一区二区 | 国产午夜福利100集发布 | 女人被男人躁得好爽免费视频 | 老子影院午夜精品无码 | 九九热爱视频精品 | 色一情一乱一伦一视频免费看 | 人人爽人人爽人人片av亚洲 | 综合人妻久久一区二区精品 | 精品国产麻豆免费人成网站 | 玩弄人妻少妇500系列视频 | 131美女爱做视频 | 性生交大片免费看l | 无码一区二区三区在线 | 久久久久99精品国产片 | 人妻与老人中文字幕 | 人人妻人人澡人人爽人人精品 | 亚洲精品国产第一综合99久久 | 色情久久久av熟女人妻网站 | 日本丰满护士爆乳xxxx | 国产精品第一区揄拍无码 | 97夜夜澡人人双人人人喊 | аⅴ资源天堂资源库在线 | 国产真实乱对白精彩久久 | 无遮挡啪啪摇乳动态图 | 亚洲欧美中文字幕5发布 | 又湿又紧又大又爽a视频国产 | 欧美日韩一区二区三区自拍 | 日本护士毛茸茸高潮 | 日韩精品一区二区av在线 | 欧洲美熟女乱又伦 | 日本丰满熟妇videos | 性欧美疯狂xxxxbbbb | 曰本女人与公拘交酡免费视频 | 99国产欧美久久久精品 | 久久午夜夜伦鲁鲁片无码免费 | 国产莉萝无码av在线播放 | 曰本女人与公拘交酡免费视频 | 无码免费一区二区三区 | 中文亚洲成a人片在线观看 | 美女扒开屁股让男人桶 | 国产精品人人妻人人爽 | 国产真实伦对白全集 | 国产在线aaa片一区二区99 | 欧美国产日产一区二区 | 亚洲欧美日韩国产精品一区二区 | 国产精品99久久精品爆乳 | 国产农村乱对白刺激视频 | 成人影院yy111111在线观看 | 中文字幕 亚洲精品 第1页 | 夜精品a片一区二区三区无码白浆 | 国产成人精品久久亚洲高清不卡 | 天天摸天天碰天天添 | 国产成人综合在线女婷五月99播放 | 影音先锋中文字幕无码 | 欧美日韩综合一区二区三区 | 日日碰狠狠躁久久躁蜜桃 | 天天燥日日燥 | 久久精品丝袜高跟鞋 | 欧美三级不卡在线观看 | 午夜性刺激在线视频免费 | 精品 日韩 国产 欧美 视频 | 一区二区传媒有限公司 | 久久综合九色综合97网 | 久久午夜无码鲁丝片午夜精品 | 黑人玩弄人妻中文在线 | 日本饥渴人妻欲求不满 | 亚洲人亚洲人成电影网站色 | 人妻天天爽夜夜爽一区二区 | 久久久久成人精品免费播放动漫 | 国产精品成人av在线观看 | 动漫av一区二区在线观看 | 300部国产真实乱 | 狂野欧美性猛xxxx乱大交 | 成人精品视频一区二区三区尤物 | 亚洲综合在线一区二区三区 | 无码一区二区三区在线 | 红桃av一区二区三区在线无码av | 国产亚洲视频中文字幕97精品 | 亚洲精品www久久久 | 国産精品久久久久久久 | 99久久精品国产一区二区蜜芽 | 欧美阿v高清资源不卡在线播放 | 国产人妻大战黑人第1集 | 极品尤物被啪到呻吟喷水 | 国产精品高潮呻吟av久久 | 亚洲无人区一区二区三区 | 精品久久久无码中文字幕 | 亚洲 高清 成人 动漫 | 久久伊人色av天堂九九小黄鸭 | 国产特级毛片aaaaaaa高清 | 99视频精品全部免费免费观看 | 久久久久99精品国产片 | 日本爽爽爽爽爽爽在线观看免 | 国产精华av午夜在线观看 | 亚洲一区二区三区四区 | 少妇无码吹潮 | 亚洲综合无码一区二区三区 | 亚洲一区二区三区无码久久 | 亚洲色成人中文字幕网站 | 在线天堂新版最新版在线8 | 国产成人人人97超碰超爽8 | 夜夜高潮次次欢爽av女 | 98国产精品综合一区二区三区 | 无码人妻久久一区二区三区不卡 | 无码精品人妻一区二区三区av | 99麻豆久久久国产精品免费 | 日韩在线不卡免费视频一区 | 精品午夜福利在线观看 | 精品日本一区二区三区在线观看 | 成人一区二区免费视频 | 两性色午夜视频免费播放 | 国产精品久久久久久久9999 | 少女韩国电视剧在线观看完整 | 久久人人爽人人爽人人片av高清 | 中文字幕无码热在线视频 | 又粗又大又硬毛片免费看 | 国产精品国产自线拍免费软件 | 欧美成人高清在线播放 | 国产成人无码午夜视频在线观看 | 99国产欧美久久久精品 | 国产明星裸体无码xxxx视频 | 中文字幕无码热在线视频 | 1000部啪啪未满十八勿入下载 | 国产成人精品优优av | 国产日产欧产精品精品app | 又大又硬又黄的免费视频 | 综合人妻久久一区二区精品 | 亚洲天堂2017无码 | 亚洲成在人网站无码天堂 | 偷窥村妇洗澡毛毛多 | 日本www一道久久久免费榴莲 | 久久亚洲a片com人成 | 一区二区三区乱码在线 | 欧洲 | 久久久中文久久久无码 | 色噜噜亚洲男人的天堂 | 国产又粗又硬又大爽黄老大爷视 | 欧美zoozzooz性欧美 | 色婷婷av一区二区三区之红樱桃 | a片免费视频在线观看 | 成人av无码一区二区三区 | 亚洲爆乳精品无码一区二区三区 | 亚洲男人av天堂午夜在 | 一本久道高清无码视频 | 欧美成人高清在线播放 | 少妇厨房愉情理9仑片视频 | 在线观看国产午夜福利片 | 人妻夜夜爽天天爽三区 | ass日本丰满熟妇pics | 国产疯狂伦交大片 | 露脸叫床粗话东北少妇 | 狠狠亚洲超碰狼人久久 | 狠狠亚洲超碰狼人久久 | 无码人妻黑人中文字幕 | 欧美人与物videos另类 | 曰韩少妇内射免费播放 | 白嫩日本少妇做爰 | 久久人人97超碰a片精品 | 黑人粗大猛烈进出高潮视频 | 亚洲色在线无码国产精品不卡 | 啦啦啦www在线观看免费视频 | 中文字幕人妻丝袜二区 | 一本久久a久久精品亚洲 | 国产舌乚八伦偷品w中 | 日韩少妇白浆无码系列 | 1000部啪啪未满十八勿入下载 | 国产激情艳情在线看视频 | 亚洲欧美日韩成人高清在线一区 | 免费中文字幕日韩欧美 | 成人免费无码大片a毛片 | 天堂亚洲免费视频 | 久久久精品成人免费观看 | 中文字幕中文有码在线 | 久久久久se色偷偷亚洲精品av | 强辱丰满人妻hd中文字幕 | 免费人成在线观看网站 | 亚洲一区二区三区含羞草 | 亚洲一区二区三区国产精华液 | 日韩人妻无码中文字幕视频 | 午夜精品一区二区三区在线观看 | 亚洲综合精品香蕉久久网 | 大地资源网第二页免费观看 | 久久久久久久久888 | 亚洲国产欧美国产综合一区 | 久久99精品国产麻豆 | 日本精品人妻无码免费大全 | 国产偷抇久久精品a片69 | 人人澡人摸人人添 | 亚洲狠狠色丁香婷婷综合 | 婷婷五月综合激情中文字幕 | 东京热男人av天堂 | 国内精品人妻无码久久久影院蜜桃 | 中文字幕无码免费久久9一区9 | 午夜福利一区二区三区在线观看 | 精品国精品国产自在久国产87 | 日本熟妇浓毛 | 亚洲a无码综合a国产av中文 | 久久成人a毛片免费观看网站 | 人妻少妇精品无码专区动漫 | 欧美人与物videos另类 | 亚洲最大成人网站 | 国产人妻精品一区二区三区 | 亚洲大尺度无码无码专区 | 国产成人精品必看 | 欧美xxxxx精品 | 97久久超碰中文字幕 | 青青青手机频在线观看 | 天天av天天av天天透 | 国产精品亚洲а∨无码播放麻豆 | 亚洲精品一区二区三区在线 | 男人和女人高潮免费网站 | 欧美xxxx黑人又粗又长 | 久久久久久久人妻无码中文字幕爆 | 欧美性猛交xxxx富婆 | 2020久久超碰国产精品最新 | 人人妻人人澡人人爽欧美一区 | 午夜肉伦伦影院 | 亚洲综合另类小说色区 | 乱人伦人妻中文字幕无码久久网 | 欧美老人巨大xxxx做受 | 麻豆成人精品国产免费 | www国产亚洲精品久久久日本 | 亚洲欧美日韩综合久久久 | 一本久道高清无码视频 | 国产极品视觉盛宴 | 午夜男女很黄的视频 | 精品久久久久香蕉网 | 无人区乱码一区二区三区 | 内射欧美老妇wbb | 日韩欧美中文字幕公布 | 5858s亚洲色大成网站www | 国产精品久久久久久亚洲影视内衣 | 国产午夜视频在线观看 | 欧美三级a做爰在线观看 | aa片在线观看视频在线播放 | 中文字幕无码免费久久99 | 国内精品一区二区三区不卡 | 嫩b人妻精品一区二区三区 | 巨爆乳无码视频在线观看 | av在线亚洲欧洲日产一区二区 | 人人澡人人妻人人爽人人蜜桃 | 一个人看的www免费视频在线观看 | 玩弄少妇高潮ⅹxxxyw | 伊人久久大香线焦av综合影院 | 少妇高潮喷潮久久久影院 | 国产精品二区一区二区aⅴ污介绍 | 日韩 欧美 动漫 国产 制服 | 欧美激情一区二区三区成人 | 男人的天堂av网站 | 伊人久久婷婷五月综合97色 | 领导边摸边吃奶边做爽在线观看 | 亚洲日韩一区二区三区 | 色婷婷综合激情综在线播放 | 俺去俺来也www色官网 | 午夜不卡av免费 一本久久a久久精品vr综合 | 国产精品自产拍在线观看 | 日韩欧美群交p片內射中文 | 丰满少妇弄高潮了www | 岛国片人妻三上悠亚 | 国产成人午夜福利在线播放 | 97精品国产97久久久久久免费 | 国产精品怡红院永久免费 | 人妻无码αv中文字幕久久琪琪布 | 日本www一道久久久免费榴莲 | 国产va免费精品观看 | 亚洲中文字幕无码一久久区 | 少妇太爽了在线观看 | 亲嘴扒胸摸屁股激烈网站 | 麻豆成人精品国产免费 | 久久国产精品精品国产色婷婷 | 亚洲国产精华液网站w | 国产免费无码一区二区视频 | 黑人粗大猛烈进出高潮视频 | 国产特级毛片aaaaaa高潮流水 | 成人精品视频一区二区 | 久9re热视频这里只有精品 | 精品国产av色一区二区深夜久久 | 无码播放一区二区三区 | 性色av无码免费一区二区三区 | 福利一区二区三区视频在线观看 | 男女爱爱好爽视频免费看 | 中文精品久久久久人妻不卡 | 久久视频在线观看精品 | 搡女人真爽免费视频大全 | 色一情一乱一伦一区二区三欧美 | 又湿又紧又大又爽a视频国产 | 国产国语老龄妇女a片 | 国产精品久久久久7777 | 少妇无码一区二区二三区 | 欧美日韩一区二区免费视频 | 国产精品第一区揄拍无码 | 国产精品人妻一区二区三区四 | 国产精品久久久久久无码 | 婷婷色婷婷开心五月四房播播 | 双乳奶水饱满少妇呻吟 | 国产97在线 | 亚洲 | 十八禁视频网站在线观看 | 欧美日韩综合一区二区三区 | 色老头在线一区二区三区 | 成人亚洲精品久久久久软件 | 欧美 日韩 亚洲 在线 | 亚洲欧美日韩国产精品一区二区 | 高潮毛片无遮挡高清免费 | 亚洲午夜福利在线观看 | 国产精品久久国产精品99 | 亚洲自偷精品视频自拍 | 亚洲精品久久久久久一区二区 | 中文字幕无码日韩欧毛 | 中文字幕精品av一区二区五区 | 成人精品视频一区二区三区尤物 | 色欲综合久久中文字幕网 | 欧美人与物videos另类 | 熟妇人妻无乱码中文字幕 | 亚洲精品国偷拍自产在线麻豆 | 久久久久久久女国产乱让韩 | 日本xxxx色视频在线观看免费 | 国产偷抇久久精品a片69 | 精品人妻中文字幕有码在线 | 特黄特色大片免费播放器图片 | 99久久久无码国产aaa精品 | 东京热男人av天堂 | 一本色道久久综合亚洲精品不卡 | 亚洲国产精品久久久久久 | 亚洲色偷偷偷综合网 | 国内老熟妇对白xxxxhd | 六十路熟妇乱子伦 | 日本成熟视频免费视频 | 国产精品第一国产精品 | 中国女人内谢69xxxxxa片 | 国产午夜精品一区二区三区嫩草 | 无码av中文字幕免费放 | 无套内射视频囯产 | 中文字幕无码日韩专区 | 国产av人人夜夜澡人人爽麻豆 | 国产在线精品一区二区三区直播 | 亚洲一区二区三区在线观看网站 | 亚洲欧美色中文字幕在线 | 国产97在线 | 亚洲 | 性色av无码免费一区二区三区 | 色综合久久网 | 国产午夜亚洲精品不卡下载 | 成熟女人特级毛片www免费 | 在线播放无码字幕亚洲 | 国内综合精品午夜久久资源 | 强伦人妻一区二区三区视频18 | 少妇人妻大乳在线视频 | 中文字幕日韩精品一区二区三区 | 亚洲熟女一区二区三区 | 成人免费视频视频在线观看 免费 | 一本久道久久综合狠狠爱 | 精品久久综合1区2区3区激情 | 国产亚av手机在线观看 | 夜夜高潮次次欢爽av女 | 风流少妇按摩来高潮 | 欧美日韩人成综合在线播放 | 亚洲a无码综合a国产av中文 | 中国女人内谢69xxxxxa片 | 色婷婷av一区二区三区之红樱桃 | 无码人妻久久一区二区三区不卡 | 亚洲中文字幕在线观看 | 狠狠色噜噜狠狠狠7777奇米 | 人妻尝试又大又粗久久 | 欧美一区二区三区 | 成在人线av无码免观看麻豆 | 漂亮人妻洗澡被公强 日日躁 | 人人爽人人爽人人片av亚洲 | 日韩精品无码一本二本三本色 | 成人毛片一区二区 | 台湾无码一区二区 | 人妻天天爽夜夜爽一区二区 | 国产 精品 自在自线 | 人妻熟女一区 | 好爽又高潮了毛片免费下载 | 亚洲国产精华液网站w | 国产精品99久久精品爆乳 | 国产日产欧产精品精品app | 日本熟妇人妻xxxxx人hd | 国内精品九九久久久精品 | 少妇激情av一区二区 | 精品无码成人片一区二区98 | 综合网日日天干夜夜久久 | 7777奇米四色成人眼影 | 国产精品自产拍在线观看 | 好爽又高潮了毛片免费下载 | 377p欧洲日本亚洲大胆 | 久久综合给合久久狠狠狠97色 | 图片小说视频一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 午夜不卡av免费 一本久久a久久精品vr综合 | 久久精品99久久香蕉国产色戒 | 亚洲春色在线视频 | av无码电影一区二区三区 | 日本丰满护士爆乳xxxx | 色综合久久88色综合天天 | 樱花草在线播放免费中文 | 日本又色又爽又黄的a片18禁 | 国产乱子伦视频在线播放 | 国产电影无码午夜在线播放 | 国产艳妇av在线观看果冻传媒 | 精品无码国产自产拍在线观看蜜 | 欧美 亚洲 国产 另类 | 亚洲小说图区综合在线 | 特黄特色大片免费播放器图片 | 精品久久久无码中文字幕 | 亚洲精品鲁一鲁一区二区三区 | 欧美激情一区二区三区成人 | 少妇高潮一区二区三区99 | 亚洲国产av美女网站 | 亚洲欧美国产精品久久 | av人摸人人人澡人人超碰下载 | 蜜桃无码一区二区三区 | 亚洲精品成人av在线 | 久久久久免费看成人影片 | 国产欧美亚洲精品a | 无码精品人妻一区二区三区av | 纯爱无遮挡h肉动漫在线播放 | 四虎永久在线精品免费网址 | 无码精品国产va在线观看dvd | 中文精品无码中文字幕无码专区 | 精品人妻人人做人人爽夜夜爽 | 性欧美大战久久久久久久 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 中文精品无码中文字幕无码专区 | 午夜性刺激在线视频免费 | 精品国产麻豆免费人成网站 | 国产情侣作爱视频免费观看 | 久久午夜无码鲁丝片 | 色情久久久av熟女人妻网站 | 国产亚洲精品久久久ai换 | 99精品视频在线观看免费 | 久久精品人妻少妇一区二区三区 | 久久国产精品萌白酱免费 | 日韩精品无码一区二区中文字幕 | 亚洲中文字幕va福利 | 久久国产精品精品国产色婷婷 | 亚洲国产精品美女久久久久 | 国内揄拍国内精品人妻 | 国内揄拍国内精品少妇国语 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 牛和人交xxxx欧美 | 丰腴饱满的极品熟妇 | 午夜精品久久久久久久 | 无遮挡国产高潮视频免费观看 | 国产在线精品一区二区高清不卡 | 国内丰满熟女出轨videos | 国产精品-区区久久久狼 | 人人妻人人澡人人爽人人精品浪潮 | 中文字幕人妻无码一夲道 | 草草网站影院白丝内射 | 麻豆精品国产精华精华液好用吗 | 国产农村妇女高潮大叫 | 午夜时刻免费入口 | 少妇久久久久久人妻无码 | 乱码av麻豆丝袜熟女系列 | 国产高清av在线播放 | 亚洲第一无码av无码专区 | 亚洲精品一区三区三区在线观看 | 97久久国产亚洲精品超碰热 | 67194成是人免费无码 | 老熟女重囗味hdxx69 | 中文字幕无码av激情不卡 | 高潮毛片无遮挡高清免费 | 成人av无码一区二区三区 | 国产乱码精品一品二品 | 亚洲欧美综合区丁香五月小说 | 久久99精品国产麻豆蜜芽 | 亚洲国产精华液网站w | 好爽又高潮了毛片免费下载 | 在线观看免费人成视频 | 啦啦啦www在线观看免费视频 | 人人妻人人澡人人爽精品欧美 | 国产莉萝无码av在线播放 | 乱码av麻豆丝袜熟女系列 | 亚洲呦女专区 | 国产精品久久久久久亚洲影视内衣 | 99久久99久久免费精品蜜桃 | 国产综合久久久久鬼色 | 国产成人无码a区在线观看视频app | 精品国产精品久久一区免费式 | 欧美人与动性行为视频 | 熟女少妇人妻中文字幕 | 国产精品.xx视频.xxtv | 久久www免费人成人片 | 亚洲成av人片天堂网无码】 | 亚洲精品国产a久久久久久 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲综合久久一区二区 | 中文字幕无码视频专区 | 精品无码av一区二区三区 | 无码吃奶揉捏奶头高潮视频 | 国产婷婷色一区二区三区在线 | 国产真实伦对白全集 | 久久国产自偷自偷免费一区调 | 日日鲁鲁鲁夜夜爽爽狠狠 | 青草青草久热国产精品 | 鲁一鲁av2019在线 | 97无码免费人妻超级碰碰夜夜 | 少妇性荡欲午夜性开放视频剧场 | 国产精品久久久久久亚洲毛片 | 人人爽人人爽人人片av亚洲 | 国产成人亚洲综合无码 | 国产一精品一av一免费 | a在线亚洲男人的天堂 | 国产人成高清在线视频99最全资源 | 99麻豆久久久国产精品免费 | 成人无码视频在线观看网站 | 国产成人一区二区三区在线观看 | 亚洲国产成人a精品不卡在线 | 成熟女人特级毛片www免费 | 真人与拘做受免费视频一 | 97精品国产97久久久久久免费 | 久久99精品国产麻豆蜜芽 | 亚洲阿v天堂在线 | 中文精品无码中文字幕无码专区 | 国产成人无码一二三区视频 | 亚洲va欧美va天堂v国产综合 | 精品国产麻豆免费人成网站 | 久久97精品久久久久久久不卡 | aa片在线观看视频在线播放 | 久久午夜无码鲁丝片秋霞 | 国产免费久久精品国产传媒 | 国产午夜福利100集发布 | 丝袜 中出 制服 人妻 美腿 | 欧美色就是色 | 久久国产精品萌白酱免费 | 大乳丰满人妻中文字幕日本 | 欧美喷潮久久久xxxxx | 图片区 小说区 区 亚洲五月 | 亚洲综合无码久久精品综合 | 老太婆性杂交欧美肥老太 | 亚洲一区二区三区香蕉 | 亚洲欧洲日本无在线码 | 天堂亚洲2017在线观看 | 亚洲欧美综合区丁香五月小说 | 一本大道久久东京热无码av | 欧美老妇交乱视频在线观看 | 欧美亚洲日韩国产人成在线播放 | 天干天干啦夜天干天2017 | 无套内谢的新婚少妇国语播放 | 亚拍精品一区二区三区探花 | 正在播放东北夫妻内射 | 无码人妻丰满熟妇区毛片18 | 日产国产精品亚洲系列 | 粉嫩少妇内射浓精videos | 日本精品久久久久中文字幕 | 特黄特色大片免费播放器图片 | 色诱久久久久综合网ywww | 国产精品多人p群无码 | 精品人妻中文字幕有码在线 | 国产精品久久久久久久9999 | 欧美精品一区二区精品久久 | 奇米影视7777久久精品人人爽 | 亚洲国产精品美女久久久久 | 久久久久久av无码免费看大片 | 波多野结衣乳巨码无在线观看 | 欧美黑人巨大xxxxx | 中文字幕+乱码+中文字幕一区 | 国产精品对白交换视频 | 久久婷婷五月综合色国产香蕉 | 国产精品亚洲lv粉色 | 麻豆国产人妻欲求不满谁演的 | 丝袜人妻一区二区三区 | 日韩人妻无码一区二区三区久久99 | 国产亚洲人成a在线v网站 | 人妻少妇精品视频专区 | 东京热一精品无码av | 奇米影视888欧美在线观看 | 亚洲中文字幕成人无码 | 无码播放一区二区三区 | 久久久亚洲欧洲日产国码αv | 乱码av麻豆丝袜熟女系列 | 丰满人妻被黑人猛烈进入 | 国产成人精品必看 | 久久久www成人免费毛片 | 小sao货水好多真紧h无码视频 | 精品久久8x国产免费观看 | 综合激情五月综合激情五月激情1 | 樱花草在线播放免费中文 | 欧美激情内射喷水高潮 | 久久综合狠狠综合久久综合88 | 亚洲精品一区二区三区在线 | 国色天香社区在线视频 | 人妻少妇精品无码专区二区 | 国产精品久久久久久亚洲毛片 | 国产电影无码午夜在线播放 | 玩弄少妇高潮ⅹxxxyw | 国产激情艳情在线看视频 | 午夜福利一区二区三区在线观看 | 狠狠噜狠狠狠狠丁香五月 | 国产一区二区三区精品视频 | 3d动漫精品啪啪一区二区中 | 国产午夜精品一区二区三区嫩草 | 中文字幕无码av激情不卡 | 成人无码视频免费播放 | 久久久久免费精品国产 | 国产精品人人爽人人做我的可爱 | 精品久久综合1区2区3区激情 | 色婷婷综合中文久久一本 | 亚洲日韩av一区二区三区四区 | 无码精品人妻一区二区三区av | 亚洲精品一区三区三区在线观看 | 最近的中文字幕在线看视频 | 伊人久久大香线焦av综合影院 | 久久www免费人成人片 | 熟女俱乐部五十路六十路av | 国产人妻精品一区二区三区不卡 | 四虎永久在线精品免费网址 | 国产美女精品一区二区三区 | 欧美 丝袜 自拍 制服 另类 | 一本久久a久久精品vr综合 | 久青草影院在线观看国产 | 熟妇人妻无乱码中文字幕 | 中文精品无码中文字幕无码专区 | 天干天干啦夜天干天2017 | 精品国产av色一区二区深夜久久 | 国产av无码专区亚洲awww | 亚洲人成网站免费播放 | 乱码午夜-极国产极内射 | 中文无码精品a∨在线观看不卡 | 国产亚洲欧美日韩亚洲中文色 | 丁香啪啪综合成人亚洲 | 正在播放老肥熟妇露脸 | 一本加勒比波多野结衣 | 性欧美熟妇videofreesex | 成年女人永久免费看片 | 国产农村妇女高潮大叫 | 日日天干夜夜狠狠爱 | 人妻少妇精品无码专区二区 | 精品国产aⅴ无码一区二区 | 免费观看黄网站 | 国产国语老龄妇女a片 | 国产明星裸体无码xxxx视频 | 蜜桃视频韩日免费播放 | 欧洲熟妇色 欧美 | 欧美野外疯狂做受xxxx高潮 | 日韩成人一区二区三区在线观看 | 亚洲国产精品一区二区第一页 | 99久久99久久免费精品蜜桃 | 亚洲狠狠色丁香婷婷综合 | 老司机亚洲精品影院无码 | 亚洲午夜无码久久 | 中文字幕日产无线码一区 | 荫蒂添的好舒服视频囗交 | 亚洲无人区午夜福利码高清完整版 | 欧美丰满熟妇xxxx性ppx人交 | 噜噜噜亚洲色成人网站 | 亚洲中文字幕无码中文字在线 | 国产精品视频免费播放 | 亚洲色大成网站www国产 | 水蜜桃亚洲一二三四在线 | 国产亚洲精品久久久久久国模美 | 国产小呦泬泬99精品 | 日欧一片内射va在线影院 | 久久久久se色偷偷亚洲精品av | 大地资源中文第3页 | 国产精品无码久久av | 红桃av一区二区三区在线无码av | 宝宝好涨水快流出来免费视频 | 97资源共享在线视频 | 久久久久久久人妻无码中文字幕爆 | 国产免费久久久久久无码 | 国产九九九九九九九a片 | 老头边吃奶边弄进去呻吟 | 欧美高清在线精品一区 | 欧美日韩一区二区综合 | 国产一区二区三区日韩精品 | 午夜性刺激在线视频免费 | 狠狠噜狠狠狠狠丁香五月 | 一本久久伊人热热精品中文字幕 | 水蜜桃亚洲一二三四在线 | 天堂无码人妻精品一区二区三区 | 日韩欧美中文字幕公布 | 亚洲国产精品美女久久久久 | 中文字幕人妻丝袜二区 | 曰本女人与公拘交酡免费视频 | 亚洲欧美精品aaaaaa片 | 天堂久久天堂av色综合 | 精品国产一区二区三区av 性色 | 亚洲精品综合一区二区三区在线 | 色综合天天综合狠狠爱 | 国产日产欧产精品精品app | 亚洲国产av精品一区二区蜜芽 | 亚无码乱人伦一区二区 | 在线观看欧美一区二区三区 | 99精品无人区乱码1区2区3区 | 日本饥渴人妻欲求不满 | 波多野结衣aⅴ在线 | 久久亚洲中文字幕无码 | 中文字幕精品av一区二区五区 | 精品成人av一区二区三区 | aⅴ在线视频男人的天堂 | 九月婷婷人人澡人人添人人爽 | 精品国产乱码久久久久乱码 | 麻豆国产丝袜白领秘书在线观看 | 精品亚洲成av人在线观看 | 久久久中文字幕日本无吗 | 少妇被粗大的猛进出69影院 | 日韩精品无码一区二区中文字幕 | 永久免费观看国产裸体美女 | 任你躁在线精品免费 | 亚洲欧美日韩国产精品一区二区 | 在教室伦流澡到高潮hnp视频 | 欧美精品一区二区精品久久 | 亚洲成av人片天堂网无码】 | 亚洲精品无码国产 | 久久精品人人做人人综合试看 | 人妻夜夜爽天天爽三区 | 少妇无码一区二区二三区 | 久久久婷婷五月亚洲97号色 | 88国产精品欧美一区二区三区 | 性做久久久久久久免费看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产精品爱久久久久久久 | 国产精品久久福利网站 | 精品人妻av区 | 丰满人妻被黑人猛烈进入 | 日本www一道久久久免费榴莲 | 国产综合久久久久鬼色 | 牲欲强的熟妇农村老妇女 | 成人免费无码大片a毛片 | 成人毛片一区二区 | 欧美第一黄网免费网站 | 中文字幕人妻无码一夲道 | 99久久精品国产一区二区蜜芽 | 激情国产av做激情国产爱 | 人妻与老人中文字幕 | 国产在线精品一区二区高清不卡 | 三上悠亚人妻中文字幕在线 | 国产精品-区区久久久狼 | 2020久久香蕉国产线看观看 | 亚洲国产av美女网站 | 黑人粗大猛烈进出高潮视频 | 亚洲人成网站免费播放 | 欧美精品无码一区二区三区 | 国产国产精品人在线视 | 色噜噜亚洲男人的天堂 | 亚洲精品国产品国语在线观看 | 欧美高清在线精品一区 | 东京热男人av天堂 | 丰腴饱满的极品熟妇 | 疯狂三人交性欧美 | 樱花草在线播放免费中文 | 国产亚洲欧美日韩亚洲中文色 | 内射白嫩少妇超碰 | av无码不卡在线观看免费 | 奇米影视7777久久精品人人爽 | 国产午夜亚洲精品不卡下载 | 亚洲精品国产第一综合99久久 | 国产美女精品一区二区三区 | 天堂а√在线中文在线 | 精品国偷自产在线 | 久久久久国色av免费观看性色 | 中文字幕av日韩精品一区二区 | 2019nv天堂香蕉在线观看 | 国内老熟妇对白xxxxhd | 国产口爆吞精在线视频 | 亚洲无人区午夜福利码高清完整版 | а√天堂www在线天堂小说 | 成年女人永久免费看片 | 国产精品人妻一区二区三区四 | 亚洲欧美日韩国产精品一区二区 | 亚洲日本一区二区三区在线 | 亚洲一区二区观看播放 | 久久久中文久久久无码 | 一二三四社区在线中文视频 | 亚洲色欲色欲天天天www | 一个人看的www免费视频在线观看 | 欧洲精品码一区二区三区免费看 | 亚洲人交乣女bbw | 黑人巨大精品欧美一区二区 | 熟女体下毛毛黑森林 | 久久久婷婷五月亚洲97号色 | 国产乱人伦偷精品视频 | 成人试看120秒体验区 | 国产极品视觉盛宴 | 国产莉萝无码av在线播放 | 国产精华av午夜在线观看 | 国产人妻精品午夜福利免费 | 日本乱人伦片中文三区 | 国产办公室秘书无码精品99 | 欧美刺激性大交 | 又紧又大又爽精品一区二区 | 无套内谢老熟女 | 老熟女重囗味hdxx69 | 中文字幕乱码人妻二区三区 | 澳门永久av免费网站 | 亚洲国产欧美日韩精品一区二区三区 | 精品无码一区二区三区爱欲 | 午夜精品一区二区三区的区别 | 小鲜肉自慰网站xnxx | 国产成人av免费观看 | 亚洲男女内射在线播放 | 国产成人精品无码播放 | 欧美人与禽猛交狂配 | 少妇无码av无码专区在线观看 | 色爱情人网站 | 国产国产精品人在线视 | 精品亚洲成av人在线观看 | 免费国产成人高清在线观看网站 | 日日碰狠狠躁久久躁蜜桃 | 1000部啪啪未满十八勿入下载 | 精品欧美一区二区三区久久久 | 青青久在线视频免费观看 | 精品无码国产一区二区三区av | 无码一区二区三区在线 | 少妇厨房愉情理9仑片视频 | 鲁大师影院在线观看 | 欧美丰满熟妇xxxx | 小鲜肉自慰网站xnxx | 亚洲欧美日韩综合久久久 | 欧美性猛交内射兽交老熟妇 | 狠狠色丁香久久婷婷综合五月 | 国模大胆一区二区三区 | 久久亚洲国产成人精品性色 | 人人超人人超碰超国产 | 亚洲中文字幕无码中字 | 99er热精品视频 | 久久精品国产一区二区三区 | 色一情一乱一伦一视频免费看 | 国产精品无码久久av | 欧美精品国产综合久久 | 77777熟女视频在线观看 а天堂中文在线官网 | 日韩少妇白浆无码系列 | 少妇久久久久久人妻无码 | 娇妻被黑人粗大高潮白浆 | 蜜桃臀无码内射一区二区三区 | 免费人成在线视频无码 | 疯狂三人交性欧美 | 老熟妇乱子伦牲交视频 | 久久aⅴ免费观看 | 亚洲色欲色欲欲www在线 | 欧美成人免费全部网站 | 成熟人妻av无码专区 | 国産精品久久久久久久 | 国内丰满熟女出轨videos | 亚洲一区二区三区在线观看网站 | 亚洲一区二区三区偷拍女厕 | 日本熟妇人妻xxxxx人hd | 成 人 网 站国产免费观看 | 欧美人与物videos另类 | 精品无人区无码乱码毛片国产 | 伊人久久大香线蕉av一区二区 | www成人国产高清内射 | 性史性农村dvd毛片 | 国产免费无码一区二区视频 | 蜜臀av无码人妻精品 | 欧美三级a做爰在线观看 | 欧美真人作爱免费视频 | 好爽又高潮了毛片免费下载 | 麻花豆传媒剧国产免费mv在线 | 76少妇精品导航 | 成人综合网亚洲伊人 | 精品国产乱码久久久久乱码 | 少妇的肉体aa片免费 | 亚洲精品一区二区三区大桥未久 | 精品人妻人人做人人爽夜夜爽 | 国产精品亚洲а∨无码播放麻豆 | www一区二区www免费 | 日韩av无码中文无码电影 | 色一情一乱一伦 | 国产超级va在线观看视频 | 国产九九九九九九九a片 | 无码福利日韩神码福利片 | 国产精品-区区久久久狼 | 久久精品国产日本波多野结衣 | 日本www一道久久久免费榴莲 | 美女极度色诱视频国产 | 欧美日韩在线亚洲综合国产人 | 国产亚洲日韩欧美另类第八页 | 天天躁日日躁狠狠躁免费麻豆 | 67194成是人免费无码 | 国产色xx群视频射精 | 天堂无码人妻精品一区二区三区 | 国产综合在线观看 | 偷窥村妇洗澡毛毛多 | 一个人看的www免费视频在线观看 | 麻豆国产丝袜白领秘书在线观看 | 少妇无码av无码专区在线观看 | 一本一道久久综合久久 | 丰满少妇熟乱xxxxx视频 | 亚洲精品中文字幕久久久久 | 国产精品人人妻人人爽 | 蜜臀av无码人妻精品 | 少妇性荡欲午夜性开放视频剧场 | 精品久久综合1区2区3区激情 | 2020久久香蕉国产线看观看 | 国产成人精品久久亚洲高清不卡 | 亚洲午夜福利在线观看 | 鲁一鲁av2019在线 | 精品久久久久香蕉网 | 未满成年国产在线观看 | 99久久精品午夜一区二区 | 久久人妻内射无码一区三区 | 妺妺窝人体色www在线小说 | 九月婷婷人人澡人人添人人爽 | 蜜桃视频韩日免费播放 | 狠狠躁日日躁夜夜躁2020 | 精品国产国产综合精品 | 久久婷婷五月综合色国产香蕉 | 精品人妻人人做人人爽夜夜爽 | 久久这里只有精品视频9 | aa片在线观看视频在线播放 | 熟妇人妻无乱码中文字幕 | 2020久久超碰国产精品最新 | 国产亚洲精品久久久闺蜜 | 无码人妻精品一区二区三区下载 | 亚洲国产av精品一区二区蜜芽 | 亚洲综合精品香蕉久久网 | 欧美日韩一区二区综合 | 久久久亚洲欧洲日产国码αv | 国语自产偷拍精品视频偷 | 97夜夜澡人人双人人人喊 | 水蜜桃av无码 | 国产午夜精品一区二区三区嫩草 | 国内少妇偷人精品视频免费 | 久久国语露脸国产精品电影 | 久久久久99精品国产片 | 男女超爽视频免费播放 | 亚洲 日韩 欧美 成人 在线观看 | 亚洲成av人影院在线观看 | 免费中文字幕日韩欧美 | 在线精品国产一区二区三区 | 欧美日韩色另类综合 | av在线亚洲欧洲日产一区二区 | √天堂中文官网8在线 | 亚洲区小说区激情区图片区 | 色婷婷香蕉在线一区二区 | 国产亚洲精品久久久久久 | 国产精品沙发午睡系列 | 精品偷拍一区二区三区在线看 | 熟妇人妻无码xxx视频 | 东京热无码av男人的天堂 | 伊人久久大香线焦av综合影院 | 国产精品久久国产精品99 | 99视频精品全部免费免费观看 | 大地资源中文第3页 | 国产两女互慰高潮视频在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲乱码日产精品bd | 丝袜 中出 制服 人妻 美腿 | 成人性做爰aaa片免费看 | 午夜嘿嘿嘿影院 | 亚洲精品国产品国语在线观看 | 一本一道久久综合久久 | 欧美色就是色 | 曰韩无码二三区中文字幕 | 99国产精品白浆在线观看免费 | 亚洲国产精品毛片av不卡在线 | 国产真人无遮挡作爱免费视频 | 亚洲成av人片在线观看无码不卡 | 国产精品高潮呻吟av久久4虎 | 亚洲熟悉妇女xxx妇女av | 天天做天天爱天天爽综合网 | 欧美真人作爱免费视频 | 亚洲欧美色中文字幕在线 | 久久久av男人的天堂 | 成 人影片 免费观看 | 久青草影院在线观看国产 | 夜夜影院未满十八勿进 | 窝窝午夜理论片影院 | 久久精品国产一区二区三区肥胖 | 日产精品高潮呻吟av久久 | 久久精品国产99精品亚洲 | 中文字幕人妻丝袜二区 | 欧美真人作爱免费视频 | 老熟女重囗味hdxx69 | 成人女人看片免费视频放人 | 午夜理论片yy44880影院 | 欧美性生交活xxxxxdddd | 纯爱无遮挡h肉动漫在线播放 | 无人区乱码一区二区三区 | 狠狠色噜噜狠狠狠狠7777米奇 | 未满成年国产在线观看 | 国产成人无码av一区二区 | 成在人线av无码免观看麻豆 | 丰满少妇弄高潮了www | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美第一黄网免费网站 | 无码国产激情在线观看 | 日本饥渴人妻欲求不满 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产无套粉嫩白浆在线 | 色综合久久久久综合一本到桃花网 | 久久精品中文字幕大胸 | 国产精品自产拍在线观看 | 偷窥日本少妇撒尿chinese | 日产精品高潮呻吟av久久 | 国内丰满熟女出轨videos | 久久综合给久久狠狠97色 | 真人与拘做受免费视频一 | 欧美性猛交xxxx富婆 | 亚洲熟妇自偷自拍另类 | 午夜免费福利小电影 | 国产成人无码a区在线观看视频app | 亚洲欧美日韩成人高清在线一区 | 亚洲色大成网站www国产 | 动漫av一区二区在线观看 | 无码一区二区三区在线观看 | 久久99精品国产麻豆 | 伊人久久大香线蕉亚洲 | 三上悠亚人妻中文字幕在线 | 无码国内精品人妻少妇 | 中文无码成人免费视频在线观看 | 久久综合九色综合97网 | 精品国产一区二区三区四区 | 亚洲精品一区二区三区婷婷月 | 久久综合色之久久综合 | 高潮毛片无遮挡高清免费 | 特黄特色大片免费播放器图片 | 亚洲va中文字幕无码久久不卡 | 国产成人精品视频ⅴa片软件竹菊 | 人人妻人人藻人人爽欧美一区 | 99久久久无码国产精品免费 | 少妇人妻大乳在线视频 | 粉嫩少妇内射浓精videos | 最新国产麻豆aⅴ精品无码 | 日本丰满熟妇videos | 亚洲狠狠色丁香婷婷综合 | 一区二区三区乱码在线 | 欧洲 | 成人欧美一区二区三区 | 国产精品人妻一区二区三区四 | 亚洲 激情 小说 另类 欧美 | 国内精品九九久久久精品 | 欧美日韩一区二区免费视频 | 亚洲精品久久久久中文第一幕 | 久久亚洲中文字幕无码 | 久久国语露脸国产精品电影 | 久久午夜无码鲁丝片午夜精品 | 巨爆乳无码视频在线观看 | 欧美人与禽zoz0性伦交 | 日本免费一区二区三区最新 | 亚洲国产欧美在线成人 | 久久久久久久人妻无码中文字幕爆 | 久久久久久九九精品久 | 亚洲色大成网站www国产 | 67194成是人免费无码 | 扒开双腿吃奶呻吟做受视频 | 精品国产福利一区二区 | 天天摸天天透天天添 | 欧洲vodafone精品性 | 亚洲综合在线一区二区三区 | 青草青草久热国产精品 | 帮老师解开蕾丝奶罩吸乳网站 | 天天燥日日燥 | 国产亚洲欧美在线专区 | 日日碰狠狠丁香久燥 | 国产免费观看黄av片 | 欧美肥老太牲交大战 | 黑人大群体交免费视频 | 国产福利视频一区二区 | 欧美日韩色另类综合 | 国产亚洲精品久久久闺蜜 | 色一情一乱一伦一区二区三欧美 | 国产午夜无码视频在线观看 | 荫蒂添的好舒服视频囗交 | 亚洲日韩乱码中文无码蜜桃臀网站 | 亚洲色在线无码国产精品不卡 | 国产欧美亚洲精品a | 国模大胆一区二区三区 | 日本精品人妻无码免费大全 | 天天拍夜夜添久久精品 | 色综合视频一区二区三区 | 99riav国产精品视频 | 中文字幕无码日韩专区 | aa片在线观看视频在线播放 | 国产三级精品三级男人的天堂 | 国产成人精品优优av | 精品 日韩 国产 欧美 视频 | 久久国产精品萌白酱免费 | 日日天干夜夜狠狠爱 | 人妻少妇精品无码专区二区 | 欧美激情内射喷水高潮 | 亚洲天堂2017无码 | 久久精品国产亚洲精品 | 国内精品人妻无码久久久影院蜜桃 | 婷婷六月久久综合丁香 | 亚洲一区二区三区香蕉 | 国产无av码在线观看 | 国产suv精品一区二区五 | 欧美亚洲国产一区二区三区 | 欧洲美熟女乱又伦 | 亚洲日韩一区二区 | 2020久久香蕉国产线看观看 | 亚洲欧美日韩成人高清在线一区 | 蜜桃av抽搐高潮一区二区 | 宝宝好涨水快流出来免费视频 | 国产精品多人p群无码 | 久久精品国产日本波多野结衣 | 午夜精品一区二区三区的区别 | 无码成人精品区在线观看 | 99er热精品视频 | 国产无遮挡又黄又爽免费视频 | 色 综合 欧美 亚洲 国产 | 久9re热视频这里只有精品 | 一本久道久久综合狠狠爱 | 青青青手机频在线观看 | 无套内谢的新婚少妇国语播放 | 久久综合给合久久狠狠狠97色 | 东京一本一道一二三区 | 国产精品多人p群无码 | 东京热一精品无码av | 国产精品美女久久久久av爽李琼 | 婷婷色婷婷开心五月四房播播 | 无码人妻少妇伦在线电影 | 日日摸日日碰夜夜爽av | 国产一区二区三区影院 | 2020久久香蕉国产线看观看 | 无码av岛国片在线播放 | 丰满妇女强制高潮18xxxx | 俺去俺来也在线www色官网 | av无码久久久久不卡免费网站 | 久久亚洲精品中文字幕无男同 | 波多野结衣av一区二区全免费观看 | 国产区女主播在线观看 | 色偷偷人人澡人人爽人人模 | 久久久久久亚洲精品a片成人 | 亚洲成av人片在线观看无码不卡 | а√天堂www在线天堂小说 | 欧美亚洲国产一区二区三区 | 毛片内射-百度 | 美女毛片一区二区三区四区 | 国产三级精品三级男人的天堂 | 永久黄网站色视频免费直播 | 九九热爱视频精品 | 亚洲gv猛男gv无码男同 | 亚洲大尺度无码无码专区 | 乌克兰少妇性做爰 | 国产无遮挡又黄又爽免费视频 | 亚洲国产精华液网站w | 久久99国产综合精品 | 亚洲 高清 成人 动漫 | 荫蒂添的好舒服视频囗交 | 无码人妻丰满熟妇区毛片18 | 女高中生第一次破苞av | 日韩视频 中文字幕 视频一区 | 欧美喷潮久久久xxxxx | 国产真实伦对白全集 | 国内精品九九久久久精品 | 亚洲熟妇自偷自拍另类 | 黑人巨大精品欧美一区二区 | 久久久久久久久蜜桃 | 亚洲国产欧美日韩精品一区二区三区 | 99re在线播放 | 精品国精品国产自在久国产87 | 久久精品人人做人人综合试看 | 又黄又爽又色的视频 | 国产av无码专区亚洲a∨毛片 | 欧美性黑人极品hd | 毛片内射-百度 | 色情久久久av熟女人妻网站 | 性欧美熟妇videofreesex | 亚洲人成影院在线无码按摩店 | 丰满人妻精品国产99aⅴ | 国产内射老熟女aaaa | 国产午夜福利100集发布 | 国产精品免费大片 | 中文无码伦av中文字幕 | 精品无码国产一区二区三区av | 黑人大群体交免费视频 | 亚洲va中文字幕无码久久不卡 | 日本高清一区免费中文视频 | 亚洲乱亚洲乱妇50p | 国产成人av免费观看 | 中文亚洲成a人片在线观看 | 丰满少妇弄高潮了www | 狂野欧美激情性xxxx | 欧美日韩在线亚洲综合国产人 | 老太婆性杂交欧美肥老太 | 国产sm调教视频在线观看 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品人人爽人人做我的可爱 | 乱人伦人妻中文字幕无码久久网 | 日日躁夜夜躁狠狠躁 | 18无码粉嫩小泬无套在线观看 | av小次郎收藏 | 日本精品久久久久中文字幕 | 一本色道久久综合狠狠躁 | 日本精品人妻无码免费大全 | 精品无人区无码乱码毛片国产 | 日产国产精品亚洲系列 | 中文久久乱码一区二区 | 日本乱人伦片中文三区 | 中文精品久久久久人妻不卡 | 亚洲精品国产品国语在线观看 | 丝袜人妻一区二区三区 | 日欧一片内射va在线影院 | 蜜桃臀无码内射一区二区三区 | 国产猛烈高潮尖叫视频免费 | 捆绑白丝粉色jk震动捧喷白浆 | 麻花豆传媒剧国产免费mv在线 | 好男人www社区 | 午夜精品久久久内射近拍高清 | 76少妇精品导航 | 97久久超碰中文字幕 | 老司机亚洲精品影院 | 中文字幕无线码免费人妻 | 国产成人无码一二三区视频 | 亚洲色大成网站www | 亚洲色成人中文字幕网站 | 兔费看少妇性l交大片免费 | 亚洲成av人片在线观看无码不卡 | 丰满岳乱妇在线观看中字无码 | 18禁黄网站男男禁片免费观看 | 3d动漫精品啪啪一区二区中 | 大地资源中文第3页 | 曰本女人与公拘交酡免费视频 | 中文字幕 人妻熟女 | 欧美成人午夜精品久久久 | 久久99精品国产麻豆蜜芽 | 无遮挡国产高潮视频免费观看 | 波多野结衣 黑人 | 久久亚洲精品中文字幕无男同 | 牛和人交xxxx欧美 | 国产av一区二区三区最新精品 | 九九久久精品国产免费看小说 | 国产农村乱对白刺激视频 | 丰满人妻精品国产99aⅴ | 亚洲精品中文字幕久久久久 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲经典千人经典日产 | 人妻人人添人妻人人爱 | 丰满人妻被黑人猛烈进入 | 国产精品亚洲综合色区韩国 | 亚洲成a人片在线观看无码3d | 精品国精品国产自在久国产87 | 亚洲 a v无 码免 费 成 人 a v | 国产午夜福利亚洲第一 | 欧美喷潮久久久xxxxx | 成 人 网 站国产免费观看 | 午夜时刻免费入口 | 在线欧美精品一区二区三区 | 天下第一社区视频www日本 | 亚洲精品一区二区三区四区五区 | 久在线观看福利视频 | 国产亚洲视频中文字幕97精品 | 免费无码午夜福利片69 | 亚洲精品国产品国语在线观看 | 少妇人妻偷人精品无码视频 | 欧美日韩一区二区三区自拍 | 国产婷婷色一区二区三区在线 | 日韩人妻无码一区二区三区久久99 | 日日橹狠狠爱欧美视频 | 熟妇人妻无乱码中文字幕 | 久久人人爽人人爽人人片ⅴ | 学生妹亚洲一区二区 | 国产手机在线αⅴ片无码观看 | 无码中文字幕色专区 | 亚洲天堂2017无码中文 | 天堂一区人妻无码 | 鲁鲁鲁爽爽爽在线视频观看 | 成人精品天堂一区二区三区 | 性欧美牲交在线视频 | 俺去俺来也在线www色官网 | 曰韩少妇内射免费播放 | 国产成人无码一二三区视频 | 久久国产精品萌白酱免费 | 国产亚洲日韩欧美另类第八页 | 一个人看的视频www在线 | 男女爱爱好爽视频免费看 | 中文无码精品a∨在线观看不卡 | 精品一区二区三区波多野结衣 | 国产 浪潮av性色四虎 | 久久精品国产大片免费观看 | 色欲综合久久中文字幕网 | 国精产品一区二区三区 | 中文精品无码中文字幕无码专区 |