3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 目标检测 >内容正文

目标检测

目标检测经典论文——Fast R-CNN论文翻译(中英文对照版):Fast R-CNN(Ross Girshick, Microsoft Research(微软研究院))

發(fā)布時間:2023/12/20 目标检测 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 目标检测经典论文——Fast R-CNN论文翻译(中英文对照版):Fast R-CNN(Ross Girshick, Microsoft Research(微软研究院)) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

目標檢測經(jīng)典論文翻譯匯總:[翻譯匯總]

翻譯pdf文件下載:[下載地址]

此版為純中文版,中英文對照版請穩(wěn)步:[Fast?R-CNN純中文版]

Fast R-CNN

Ross Girshick

Microsoft Research(微軟研究院)

rbg@microsoft.com

Abstract

This paper proposes a Fast Region-based Convolutional Network method (Fast R-CNN) for object detection. Fast R-CNN builds on previous work to efficiently classify object proposals using deep convolutional networks. Compared to previous work, Fast R-CNN employs several innovations to improve training and testing speed while also increasing detection accuracy. Fast R-CNN trains the very deep VGG16 network 9× faster than R-CNN, is 213× faster at test-time, and achieves a higher mAP on PASCAL VOC 2012. Compared to SPPnet, Fast R-CNN trains VGG16 3× faster, tests 10× faster, and is more accurate. Fast R-CNN is implemented in Python and C++ (using Caffe) and is available under the open-source MIT License at https: //github.com/rbgirshick/fast-rcnn.

摘要

本文提出了一種快速的基于區(qū)域的卷積網(wǎng)絡方法(fast R-CNN)用于目標檢測。Fast R-CNN建立在以前使用的深卷積網(wǎng)絡有效地分類目標的成果上。相比于之前的研究工作,Fast R-CNN采用了多項創(chuàng)新提高了訓練和測試速度,同時也提高了檢測準確度。Fast R-CNN訓練非常深的VGG16網(wǎng)絡比R-CNN快9倍,測試時快213倍,并在PASCAL VOC上得到了更高的準確度。與SPPnet相比,Fast R-CNN訓練VGG16網(wǎng)絡比他快3倍,測試速度快10倍,并且更準確。Fast R-CNN的Python和C ++(使用Caffe)實現(xiàn)以MIT開源許可證發(fā)布在:https://github.com/rbgirshick/fast-rcnn。

1. Introduction

Recently, deep ConvNets [14, 16] have significantly improved image classification [14] and object detection [9, 19] accuracy. Compared to image classification, object detection is a more challenging task that requires more complex methods to solve. Due to this complexity, current approaches (e.g., [9, 11, 19, 25]) train models in multi-stage pipelines that are slow and inelegant.

1. 引言

最近,深度卷積網(wǎng)絡[14, 16]已經(jīng)顯著提高了圖像分類[14]和目標檢測[9, 19]的準確性。與圖像分類相比,目標檢測是一個更具挑戰(zhàn)性的任務,需要更復雜的方法來解決。由于這種復雜性,當前的方法(例如,[9, 11, 19, 25])采用多級pipelines的方式訓練模型,既慢且精度不高。

Complexity arises because detection requires the accurate localization of objects, creating two primary challenges. First, numerous candidate object locations (often called “proposals”) must be processed. Second, these candidates provide only rough localization that must be refined to achieve precise localization. Solutions to these problems often compromise speed, accuracy, or simplicity.

復雜性的產(chǎn)生是因為檢測需要目標的精確定位,這就導致兩個主要的難點。首先,必須處理大量候選目標位置(通常稱為“proposals”)。 第二,這些候選框僅提供粗略定位,其必須被精細化以實現(xiàn)精確定位。 這些問題的解決方案經(jīng)常會影響速度、準確性或簡潔性。

In this paper, we streamline the training process for state-of-the-art ConvNet-based object detectors [9, 11]. We propose a single-stage training algorithm that jointly learns to classify object proposals and refine their spatial locations.

在本文中,我們簡化了最先進的基于卷積網(wǎng)絡的目標檢測器的訓練過程[9, 11]。我們提出一個單階段訓練算法,聯(lián)合學習候選框分類和修正他們的空間位置。

The resulting method can train a very deep detection network (VGG16 [20]) 9× faster than R-CNN [9] and 3× faster than SPPnet [11]. At runtime, the detection network processes images in 0.3s (excluding object proposal time) while achieving top accuracy on PASCAL VOC 2012 [7] with a mAP of 66% (vs. 62% for R-CNN).

最終方法能夠訓練非常深的檢測網(wǎng)絡(例如VGG16),其網(wǎng)絡比R-CNN快9倍,比SPPnet快3倍。在運行時,檢測網(wǎng)絡在PASCAL VOC 2012數(shù)據(jù)集上實現(xiàn)最高準確度,其中mAP為66%(R-CNN為62%),每張圖像處理時間為0.3秒,不包括候選框的生成(注:所有的時間都是使用一個超頻875MHz的Nvidia K40 GPU測試的)。

1.1. RCNN and SPPnet

The Region-based Convolutional Network method (R-CNN) [9] achieves excellent object detection accuracy by using a deep ConvNet to classify object proposals. R-CNN, however, has notable drawbacks:

1. Training is a multi-stage pipeline. R-CNN first fine-tunes a ConvNet on object proposals using log loss. Then, it fits SVMs to ConvNet features. These SVMs act as object detectors, replacing the softmax classifier learnt by fine-tuning. In the third training stage, bounding-box regressors are learned.

2. Training is expensive in space and time. For SVM and bounding-box regressor training, features are extracted from each object proposal in each image and written to disk. With very deep networks, such as VGG16, this process takes 2.5 GPU-days for the 5k images of the VOC07 trainval set. These features require hundreds of gigabytes of storage.

3. Object detection is slow. At test-time, features are extracted from each object proposal in each test image. Detection with VGG16 takes 47s / image (on a GPU).

1.1. R-CNN與SPPnet

基于區(qū)域的卷積網(wǎng)絡方法(R-CNN)[9]通過使用深度卷積網(wǎng)絡來分類目標候選框,獲得了很高的目標檢測精度。然而,R-CNN具有明顯的缺點:

1. 訓練過程是多級pipelineR-CNN首先使用目標候選框?qū)矸e神經(jīng)網(wǎng)絡使用log損失進行fine-tune。然后,它將卷積神經(jīng)網(wǎng)絡得到的特征送入SVM。這些SVM作為目標檢測器,替代通過fine-tune學習的softmax分類器。在第三個訓練階段,學習bounding-box回歸器。

2. 訓練在時間和空間上是的開銷很大。對于SVM和bounding-box回歸訓練,從每個圖像中的每個目標候選框提取特征,并寫入磁盤。對于VOC07 trainval上的5k個圖像,使用如VGG16非常深的網(wǎng)絡時,這個過程在單個GPU上需要2.5天。這些特征需要數(shù)百GB的存儲空間。

3. 目標檢測速度很慢。在測試時,從每個測試圖像中的每個目標候選框提取特征。用VGG16網(wǎng)絡檢測目標時,每個圖像需要47秒(在GPU上)。

R-CNN is slow because it performs a ConvNet forward pass for each object proposal, without sharing computation. Spatial pyramid pooling networks (SPPnets) [11] were proposed to speed up R-CNN by sharing computation. The SPPnet method computes a convolutional feature map for the entire input image and then classifies each object proposal using a feature vector extracted from the shared feature map. Features are extracted for a proposal by max-pooling the portion of the feature map inside the proposal into a fixed-size output (e.g., 6×6). Multiple output sizes are pooled and then concatenated as in spatial pyramid pooling [15]. SPPnet accelerates R-CNN by 10 to 100× at test time. Training time is also reduced by 3× due to faster proposal feature extraction.

R-CNN很慢是因為它為每個目標候選框進行卷積神經(jīng)網(wǎng)絡前向傳遞,而沒有共享計算。SPPnet網(wǎng)絡[11]提出通過共享計算加速R-CNN。SPPnet計算整個輸入圖像的卷積特征圖,然后使用從共享特征圖提取的特征向量來對每個候選框進行分類。通過最大池化將候選框內(nèi)的特征圖轉(zhuǎn)化為固定大小的輸出(例如6×6)來提取針對候選框的特征。多輸出尺寸被池化,然后連接成空間金字塔池[15]。SPPnet在測試時將R-CNN加速10到100倍。由于更快的候選框特征提取,訓練時間也減少了3倍。

SPPnet also has notable drawbacks. Like R-CNN, training is a multi-stage pipeline that involves extracting features, fine-tuning a network with log loss, training SVMs, and finally fitting bounding-box regressors. Features are also written to disk. But unlike R-CNN, the fine-tuning algorithm proposed in [11] cannot update the convolutional layers that precede the spatial pyramid pooling. Unsurprisingly, this limitation (fixed convolutional layers) limits the accuracy of very deep networks.

SPP網(wǎng)絡也有顯著的缺點。像R-CNN一樣,訓練過程是一個多級pipeline,涉及提取特征、使用log損失對網(wǎng)絡進行fine-tuning、訓練SVM分類器以及最后擬合檢測框回歸。特征也要寫入磁盤。但與R-CNN不同,在[11]中提出的fine-tuning算法不能更新在空間金字塔池之前的卷積層。不出所料,這種局限性(固定的卷積層)限制了深層網(wǎng)絡的精度。

1.2. Contributions

We propose a new training algorithm that fixes the disadvantages of R-CNN and SPPnet, while improving on their speed and accuracy. We call this method Fast R-CNN because it’s comparatively fast to train and test. The Fast RCNN method has several advantages:

1. Higher detection quality (mAP) than R-CNN, SPPnet

2. Training is single-stage, using a multi-task loss

3. Training can update all network layers

4. No disk storage is required for feature caching

1.2. 貢獻

我們提出一種新的訓練算法,修正了R-CNN和SPPnet的缺點,同時提高了速度和準確性。因為它能比較快地進行訓練和測試,我們稱之為Fast R-CNN。Fast RCNN方法有以下幾個優(yōu)點:

1. 比R-CNN和SPPnet具有更高的目標檢測精度(mAP)。

2. 訓練是使用多任務損失的單階段訓練。

3. 訓練可以更新所有網(wǎng)絡層參數(shù)。

4. 不需要磁盤空間緩存特征。

Fast R-CNN is written in Python and C++ (Caffe [13]) and is available under the open-source MIT License at https://github.com/rbgirshick/fast-rcnn.

Fast R-CNN使用Python和C++(Caffe[13])編寫,以MIT開源許可證發(fā)布在:https://github.com/rbgirshick/fast-rcnn。

2. Fast R-CNN architecture and training

Fig. 1 illustrates the Fast R-CNN architecture. A Fast R-CNN network takes as input an entire image and a set of object proposals. The network first processes the whole image with several convolutional (conv) and max pooling layers to produce a conv feature map. Then, for each object proposal a region of interest (RoI) pooling layer extracts a fixed-length feature vector from the feature map. Each feature vector is fed into a sequence of fully connected (fc) layers that finally branch into two sibling output layers: one that produces softmax probability estimates over K object classes plus a catch-all “background” class and another layer that outputs four real-valued numbers for each of the K object classes. Each set of 4 values encodes refined bounding-box positions for one of the K classes.

Figure 1. Fast R-CNN architecture. An input image and multiple regions of interest (RoIs) are input into a fully convolutional network. Each RoI is pooled into a fixed-size feature map and then mapped to a feature vector by fully connected layers (FCs). The network has two output vectors per RoI: softmax probabilities and per-class bounding-box regression offsets. The architecture is trained end-to-end with a multi-task loss.

2. Fast R-CNN架構與訓練

Fast R-CNN的架構如圖1所示。Fast R-CNN網(wǎng)絡將整個圖像和一組候選框作為輸入。網(wǎng)絡首先使用幾個卷積層(conv)和最大池化層來處理整個圖像,以產(chǎn)生卷積特征圖。然后,對于每個候選框,RoI池化層從特征圖中提取固定長度的特征向量。每個特征向量被送入一系列全連接(fc)層中,其最終分支成兩個同級輸出層 :一個輸出K個類別加上1個包含所有背景類別的Softmax概率估計,另一個層輸出K個類別的每一個類別輸出四個實數(shù)值。每組4個值表示K個類別中一個類別的修正后檢測框位置。

1. Fast R-CNN架構。輸入圖像和多個感興趣區(qū)域(RoI)被輸入到全卷積網(wǎng)絡中。每個RoI被池化到固定大小的特征圖中,然后通過全連接層(FC)映射到特征向量。網(wǎng)絡對于每個RoI具有兩個輸出向量:Softmax概率和每類bounding-box回歸偏移量。該架構是使用多任務損失進行端到端訓練的。

2.1. The RoI pooling layer

The RoI pooling layer uses max pooling to convert the features inside any valid region of interest into a small feature map with a fixed spatial extent of H×W (e.g., 7 7), where H and W are layer hyper-parameters that are independent of any particular RoI. In this paper, an RoI is a rectangular window into a conv feature map. Each RoI is defined by a four-tuple (r, c, h, w) that specifies its top-left corner (r, c) and its height and width (h, w).

2.1. RoI池化層

RoI池化層使用最大池化將任何有效的RoI內(nèi)的特征轉(zhuǎn)換成具有H×W(例如,7×7)的固定空間范圍的小特征圖,其中H和W是層的超參數(shù),獨立于任何特定的RoI。在本文中,RoI是卷積特征圖中的一個矩形窗口。每個RoI由指定其左上角(r,c)及其高度和寬度(h,w)的四元組(r,c,h,w)定義。

RoI max pooling works by dividing the h×w RoI window into an H ×W grid of sub-windows of approximate size h/H×w/W and then max-pooling the values in each sub-window into the corresponding output grid cell. Pooling is applied independently to each feature map channel, as in standard max pooling. The RoI layer is simply the special-case of the spatial pyramid pooling layer used in SPPnets [11] in which there is only one pyramid level. We use the pooling sub-window calculation given in [11].

RoI最大池化通過將大小為h×w的RoI窗口分割成H×W個網(wǎng)格,子窗口大小約為h/H×w/W,然后對每個子窗口執(zhí)行最大池化,并將輸出合并到相應的輸出網(wǎng)格單元中。同標準的最大池化一樣,池化操作獨立應用于每個特征圖通道。RoI層只是SPPnets[11]中使用的空間金字塔池層的特例,其只有一個金字塔層。我們使用[11]中給出的池化子窗口計算方法。

2.2. Initializing from pre-trained networks

We experiment with three pre-trained ImageNet [4] networks, each with five max pooling layers and between five and thirteen conv layers (see Section 4.1 for network details). When a pre-trained network initializes a Fast R-CNN network, it undergoes three transformations.

2.2 從預訓練網(wǎng)絡初始化

我們實驗了三個預訓練的ImageNet [4]網(wǎng)絡,每個網(wǎng)絡有五個最大池化層和5至13個卷積層(網(wǎng)絡詳細信息見4.1節(jié))。當預訓練網(wǎng)絡初始化Fast R-CNN網(wǎng)絡時,其經(jīng)歷三個變換。

First, the last max pooling layer is replaced by a RoI pooling layer that is configured by setting H and W to be compatible with the net’s first fully connected layer (e.g., H = W = 7 for VGG16).

首先,最后的最大池化層由RoI池層代替,其將H和W設置為與網(wǎng)絡的第一個全連接層兼容的配置(例如,對于VGG16,H=W=7)。

Second, the network’s last fully connected layer and softmax (which were trained for 1000-way ImageNet classification) are replaced with the two sibling layers described earlier (a fully connected layer and softmax over K+1 categories and category-specific bounding-box regressors).

其次,網(wǎng)絡的最后一個全連接層和Softmax(其被訓練用于1000類ImageNet分類)被替換為前面描述的兩個同級層(全連接層和K+1個類別的Softmax以及特定類別的bounding-box回歸)。

Third, the network is modified to take two data inputs: a list of images and a list of RoIs in those images.

最后,網(wǎng)絡被修改為采用兩個數(shù)據(jù)輸入:圖像的列表和這些圖像中的RoI的列表。

2.3. Finetuning for detection

Training all network weights with back-propagation is an important capability of Fast R-CNN. First, let’s elucidate why SPPnet is unable to update weights below the spatial pyramid pooling layer.

2.3 檢測任務fine-tune

用反向傳播訓練所有網(wǎng)絡權重是Fast R-CNN的重要能力。首先,讓我們闡明為什么SPPnet無法更新低于空間金字塔池化層的權重。

The root cause is that back-propagation through the SPP layer is highly inefficient when each training sample (i.e. RoI) comes from a different image, which is exactly how R-CNN and SPPnet networks are trained. The inefficiency stems from the fact that each RoI may have a very large receptive field, often spanning the entire input image. Since the forward pass must process the entire receptive field, the training inputs are large (often the entire image).

根本原因是當每個訓練樣本(即RoI)來自不同的圖像時,通過SPP層的反向傳播是非常低效的,這正是訓練R-CNN和SPPnet網(wǎng)絡的方法。低效是因為每個RoI可能具有非常大的感受野,通常跨越整個輸入圖像。由于正向傳播必須處理整個感受野,訓練輸入很大(通常是整個圖像)。

We propose a more efficient training method that takes advantage of feature sharing during training. In Fast R-CNN training, stochastic gradient descent (SGD) mini-batches are sampled hierarchically, first by sampling N images and then by sampling R/N RoIs from each image. Critically, RoIs from the same image share computation and memory in the forward and backward passes. Making N small decreases mini-batch computation. For example, when using N = 2 and R = 128, the proposed training scheme is roughly 64× faster than sampling one RoI from 128 different images (i.e., the R-CNN and SPPnet strategy).

我們提出了一種更有效的訓練方法,利用訓練期間的特征共享。在Fast R-CNN網(wǎng)絡訓練中,隨機梯度下降(SGD)的小批量是被分層采樣的,首先采樣N個圖像,然后從每個圖像采樣R/N個RoI。關鍵的是,來自同一圖像的RoI在前向和后向傳播中共享計算和內(nèi)存。減小N,就減少了小批量的計算。例如,當N=2和R=128時,得到的訓練方案比從128幅不同的圖采樣一個RoI(即R-CNN和SPPnet的策略)快64倍。

One concern over this strategy is it may cause slow training convergence because RoIs from the same image are correlated. This concern does not appear to be a practical issue and we achieve good results with N = 2 and R = 128 using fewer SGD iterations than R-CNN.

這個策略的一個令人擔心的問題是它可能導致訓練收斂變慢,因為來自相同圖像的RoI是相關的。這個問題似乎在實際情況下并不存在,當N=2和R=128時,我們使用比R-CNN更少的SGD迭代就獲得了良好的結果。

In addition to hierarchical sampling, Fast R-CNN uses a streamlined training process with one fine-tuning stage that jointly optimizes a softmax classifier and bounding-box regressors, rather than training a softmax classifier, SVMs, and regressors in three separate stages [9, 11]. The components of this procedure (the loss, mini-batch sampling strategy, back-propagation through RoI pooling layers, and SGD hyper-parameters) are described below.

除了分層采樣,Fast R-CNN使用了一個精細的訓練過程,在fine-tune階段聯(lián)合優(yōu)化Softmax分類器和bounding-box回歸,而不是分別在三個獨立的階段訓練softmax分類器、SVM和回歸器[9, 11]。下面將詳細描述該過程(損失、小批量采樣策略、通過RoI池化層的反向傳播和SGD超參數(shù))。

Multi-task loss. A Fast R-CNN network has two sibling output layers. The first outputs a discrete probability distribution (per RoI), p=(p0,…, pK), over K+1 categories. As usual, p is computed by a softmax over the K+1 outputs of a fully connected layer. The second sibling layer outputs bounding-box regression offsets, tk=(tkx, tky, tkw, tkh), for each of the K object classes, indexed by k. We use the parameterization for tk given in [9], in which tk specifies a scale-invariant translation and log-space height/width shift relative to an object proposal.

多任務損失。Fast R-CNN網(wǎng)絡具有兩個同級輸出層。第一個輸出在K+1個類別上的離散概率分布(每個RoI),p=(p0,…,pK)。通常,基于全連接層的K+1個輸出通過Softmax來計算p。第二個輸出層輸出bounding-box回歸偏移,即tk=(tkx, tky, tkw, tkh),k表示K個類別的索引。我們使用[9]中給出方法對tk進行參數(shù)化,其中tk指定相對于候選框的尺度不變轉(zhuǎn)換和對數(shù)空間高度/寬度移位。

Each training RoI is labeled with a ground-truth class u and a ground-truth bounding-box regression target v. We use a multi-task loss L on each labeled RoI to jointly train for classification and bounding-box regression:

in which Lcls(p, u) = - log pu is log loss for true class u.

每個訓練的RoI用類真值u和bounding-box回歸目標真值v打上標簽。我們對每個標記的RoI使用多任務損失L以聯(lián)合訓練分類和bounding-box回歸:

其中Lcls(p, u) = - log pu,是類真值u的log損失。

The second task loss, Lloc, is defined over a tuple of true bounding-box regression targets for class u, v = (vx, vy, vw, vh), and a predicted tuple tu = (tux ; tuy ; tuw; tuh ), again for class u. The Iverson bracket indicator function [u≥1] evaluates to 1 when u≥1 and 0 otherwise. By convention the catch-all background class is labeled u = 0. For background RoIs there is no notion of a ground-truth bounding box and hence Lloc is ignored. For bounding-box regression, we use the loss

in which

is a robust L1 loss that is less sensitive to outliers than the L2 loss used in R-CNN and SPPnet. When the regression targets are unbounded, training with L2 loss can require careful tuning of learning rates in order to prevent exploding gradients. Eq. 3 eliminates this sensitivity.

對于類真值u,第二個損失Lloc是定義在bounding-box回歸目標真值元組u, v = (vx, vy, vw, vh)和預測元組tu=(tux,tuy,tuw,tuh)上的損失。Iverson括號指示函數(shù)[u≥1],當u≥1的時候值為1,否則為0。按照慣例,任何背景類標記為u=0。對于背景RoI,沒有檢測框真值的概念,因此Lloc被忽略。對于檢測框回歸,我們使用損失:

其中:

是魯棒的L1損失,對于異常值比在R-CNN和SPPnet中使用的L2損失更不敏感。當回歸目標無界時,具有L2損失的訓練可能需要仔細調(diào)整學習速率,以防止爆炸梯度。公式(3)消除了這種敏感性。

The hyper-parameter λ in Eq. 1 controls the balance between the two task losses. We normalize the ground-truth regression targets vi to have zero mean and unit variance. All experiments use? = 1.

公式(1)中的超參數(shù)λ控制兩個任務損失之間的平衡。我們將回歸目標真值vi歸一化為具有零均值和方差為1的分布。所有實驗都使用λ=1。

We note that [6] uses a related loss to train a class-agnostic object proposal network. Different from our approach, [6] advocates for a two-network system that separates localization and classification. OverFeat [19], R-CNN [9], and SPPnet [11] also train classifiers and bounding-box localizers, however these methods use stage-wise training, which we show is suboptimal for Fast R-CNN (Section 5.1).

我們注意到[6]使用相關損失來訓練一個類別無關的目標候選網(wǎng)絡。與我們的方法不同的是,[6]倡導一個將定位和分類分離的雙網(wǎng)絡系統(tǒng)。OverFeat[19]、R-CNN[9]和SPPnet[11]也訓練分類器和檢測框定位器,但是這些方法使用逐級訓練,這對于Fast R-CNN來說不是最好的選擇。

Mini-batch sampling. During fine-tuning, each SGD mini-batch is constructed from N = 2 images, chosen uniformly at random (as is common practice, we actually iterate over permutations of the dataset). We use mini-batches of size R = 128, sampling 64 RoIs from each image. As in [9], we take 25% of the RoIs from object proposals that have intersection over union (IoU) overlap with a groundtruth bounding box of at least 0.5. These RoIs comprise the examples labeled with a foreground object class, i.e. u≥1. The remaining RoIs are sampled from object proposals that have a maximum IoU with ground truth in the interval [0.1, 0.5], following [11]. These are the background examples and are labeled with u = 0. The lower threshold of 0.1 appears to act as a heuristic for hard example mining [8]. During training, images are horizontally flipped with probability 0.5. No other data augmentation is used.

小批量采樣。在fine-tune期間,每個SGD的小批量由N=2個圖像構成,均勻地隨機選擇(如通常的做法,我們實際上迭代數(shù)據(jù)集的排列)。 我們使用大小為R=128的小批量,從每個圖像采樣64個RoI。如在[9]中,我們從候選框中獲取25%的RoI,這些候選框與檢測框真值的交并比IoU至少為0.5。這些RoI只包括用前景對象類標記的樣本,即u≥1。根據(jù)[11],剩余的RoI從候選框中采樣,該候選框與檢測框真值的最大IoU在區(qū)間[0.1, 0.5]。這些是背景樣本,并用u=0標記。0.1的閾值下限似乎充當困難樣本重挖掘的啟發(fā)式算法[8]。在訓練期間,圖像以概率0.5水平翻轉(zhuǎn)。不使用其他數(shù)據(jù)增強。

Back-propagation through RoI pooling layers. Backpropagation routes derivatives through the RoI pooling layer. For clarity, we assume only one image per mini-batch (N = 1), though the extension to N > 1 is straightforward because the forward pass treats all images independently.

通過RoI池化層的反向傳播。反向傳播通過RoI池化層。為了清楚起見,我們假設每個小批量(N=1)只有一個圖像,擴展到N>1是顯而易見的,因為前向傳播獨立地處理所有圖像。

Let xi∈R be the i-th activation input into the RoI pooling layer and let yrj be the layer’s j-th output from the r-th RoI. The RoI pooling layer computes yrj = xi*(r, j), in which i*(r, j) = argmax xi’ . R(r; j) is the index set of inputs in the sub-window over which the output unit yrj max pools. A single xi may be assigned to several different outputs yrj .

令RoI池化層的第i個激活輸入xi∈R,令yrj是第r個RoI層的第j個輸出。RoI池化層計算yrj = xi*(r, j),其中i*(r, j) = argmax xi’ . R(r; j)是輸出單元yrj最大池化的子窗口中的輸入的索引集合。一個xi可以被分配給幾個不同的輸出yrj。

The RoI pooling layer’s backwards function computes partial derivative of the loss function with respect to each input variable xi by following the argmax switches:

RoI池化層反向傳播函數(shù)通過遵循argmax switches來計算關于每個輸入變量xi的損失函數(shù)的偏導數(shù):

In words, for each mini-batch RoI r and for each pooling output unit yrj, the partial derivative ?L/?yrj is accumulated if i is the argmax selected for yrj by max pooling. In back-propagation, the partial derivatives ?L/?yrj are already computed by the backwards function of the layer on top of the RoI pooling layer.

換句話說,對于每個小批量RoI r和對于每個池化輸出單元yrj,如果i是yrj通過最大池化選擇的argmax,則將這個偏導數(shù)?L/?yrj積累下來。在反向傳播中,偏導數(shù)?L/?yrj已經(jīng)由RoI池化層頂部的層的反向傳播函數(shù)計算。

SGD hyper-parameters. The fully connected layers used for softmax classification and bounding-box regression are initialized from zero-mean Gaussian distributions with standard deviations 0.01 and 0.001, respectively. Biases are initialized to 0. All layers use a per-layer learning rate of 1 for weights and 2 for biases and a global learning rate of 0.001. When training on VOC07 or VOC12 trainval we run SGD for 30k mini-batch iterations, and then lower the learning rate to 0.0001 and train for another 10k iterations. When we train on larger datasets, we run SGD for more iterations, as described later. A momentum of 0:9 and parameter decay of 0.0005 (on weights and biases) are used.

SGD超參數(shù)。用于Softmax分類和檢測框回歸的全連接層的權重分別使用具有方差0.01和0.001的零均值高斯分布初始化。偏置初始化為0。所有層的權重學習率為1倍的全局學習率,偏置為2倍的全局學習率,全局學習率為0.001。當對VOC07或VOC12 trainval訓練時,我們進行30k次小批量SGD迭代,然后將學習率降低到0.0001,再訓練10k次迭代。當我們訓練更大的數(shù)據(jù)集,我們運行SGD更多的迭代,如下文所述。使用0.9的動量和0.0005的參數(shù)衰減(權重和偏置)。

2.4. Scale invariance

We explore two ways of achieving scale invariant object detection: (1) via “brute force” learning and (2) by using image pyramids. These strategies follow the two approaches in [11]. In the brute-force approach, each image is processed at a pre-defined pixel size during both training and testing. The network must directly learn scale-invariant object detection from the training data.

2.4. 尺度不變性

我們探索兩種實現(xiàn)尺度不變目標檢測的方法:(1)通過“brute force”學習和(2)通過使用圖像金字塔。這些策略遵循[11]中的兩種方法。在“brute force”方法中,在訓練和測試期間以預定義的像素大小處理每個圖像。網(wǎng)絡必須直接從訓練數(shù)據(jù)學習尺度不變性目標檢測。

The multi-scale approach, in contrast, provides approximate scale-invariance to the network through an image pyramid. At test-time, the image pyramid is used to approximately scale-normalize each object proposal. During multi-scale training, we randomly sample a pyramid scale each time an image is sampled, following [11], as a form of data augmentation. We experiment with multi-scale training for smaller networks only, due to GPU memory limits.

相反,多尺度方法通過圖像金字塔向網(wǎng)絡提供近似尺度不變性。 在測試時,圖像金字塔用于大致縮放-規(guī)范化每個候選框。按照[11]中的方法,作為數(shù)據(jù)增強的一種形式,在多尺度訓練期間,我們在每次圖像采樣時隨機采樣金字塔尺度。由于GPU內(nèi)存限制,我們只對較小的網(wǎng)絡進行多尺度訓練。

3. Fast R-CNN detection

Once a Fast R-CNN network is fine-tuned, detection amounts to little more than running a forward pass (assuming object proposals are pre-computed). The network takes as input an image (or an image pyramid, encoded as a list of images) and a list of R object proposals to score. At test-time, R is typically around 2000, although we will consider cases in which it is larger (≈45k). When using an image pyramid, each RoI is assigned to the scale such that the scaled RoI is closest to 2242 pixels in area [11].

3. Fast R-CNN檢測

一旦Fast R-CNN網(wǎng)絡被fine-tune完畢,檢測相當于運行前向傳播(假設候選框是預先計算的)。網(wǎng)絡將輸入圖像(或圖像金字塔,編碼為圖像列表)和待計算得分的R個候選框的列表作為輸入。在測試的時候,R通常在2000左右,盡管我們需要考慮更大(約45k)的情況。當使用圖像金字塔時,每個RoI被縮放,使其最接近[11]中的2242個像素。

For each test RoI r, the forward pass outputs a class posterior probability distribution p and a set of predicted bounding-box offsets relative to r (each of the K classes gets its own refined bounding-box prediction). We assign a detection confidence to r for each object class k using the estimated probability Pr(class = k|r) ? pk. We then perform non-maximum suppression independently for each class using the algorithm and settings from R-CNN [9].

對于每個測試的RoI r,正向傳播輸出類別后驗概率分布p和相對于r的預測檢測框偏移集合(K個類別中的每個類別獲得其自己的修正的檢測框預測結果)。我們使用估計的概率Pr(class=k|r)?pk為每個對象類別k分配r的檢測置信度。然后,我們使用R-CNN [9]算法的設置和算法對每個類別獨立執(zhí)行非極大值抑制。

3.1. Truncated SVD for faster detection

For whole-image classification, the time spent computing the fully connected layers is small compared to the conv layers. On the contrary, for detection the number of RoIs to process is large and nearly half of the forward pass time is spent computing the fully connected layers (see Fig. 2). Large fully connected layers are easily accelerated by compressing them with truncated SVD [5, 23].

Figure 2. Timing for VGG16 before and after truncated SVD. Before SVD, fully connected layers fc6 and fc7 take 45% of the time.

3.1. 使用截斷的SVD實現(xiàn)更快的檢測

對于整個圖像進行分類任務時,與卷積層相比,計算全連接層花費的時間較小。相反,在圖像檢測任務中,要處理大量的RoI,并且接近一半的前向傳播時間用于計算全連接層(參見圖2)。較大的全連接層可以輕松地通過用截短的SVD[5, 23]壓縮來提升速度。

2. 截斷SVD之前和之后VGG16的時間分布。在SVD之前,全連接層fc6和fc7消耗45%的時間。

In this technique, a layer parameterized by the u × v weight matrix W is approximately factorized as

using SVD. In this factorization, U is a u × t matrix comprising the first t left-singular vectors of W, Et is a t diagonal matrix containing the top t singular values of W, and V is v × t matrix comprising the first t right-singular vectors of W. Truncated SVD reduces the parameter count from uv to t(u + v), which can be significant if t is much smaller than min(u, v). To compress a network, the single fully connected layer corresponding to W is replaced by two fully connected layers, without a non-linearity between them. The first of these layers uses the weight matrix EtVT (and no biases) and the second uses U (with the original biases associated with W). This simple compression method gives good speedups when the number of RoIs is large.

在這種技術中,層的u × v權重矩陣W通過SVD被近似分解為:

在這種分解中,U是一個u×t的矩陣,包括W的前t個左奇異向量,Et是t×t對角矩陣,其包含W的前t個奇異值,并且V是v×t矩陣,包括W的前t個右奇異向量。截斷SVD將參數(shù)計數(shù)從uv減少到t(u+v)個,如果t遠小于min(u,v),則是非常有意義的。為了壓縮網(wǎng)絡,對應于W的單個全連接層由兩個全連接層替代,在它們之間沒有非線性。這些層中的第一層使用權重矩陣EtVT(沒有偏置),并且第二層使用U(其中原始偏差與W相關聯(lián))。當RoI的數(shù)量較大時,這種簡單的壓縮方法能實現(xiàn)很好的加速。

4. Main results

Three main results support this paper’s contributions:

1. State-of-the-art mAP on VOC07, 2010, and 2012

2. Fast training and testing compared to R-CNN, SPPnet

3. Fine-tuning conv layers in VGG16 improves mAP

4. 主要結果

三個主要結果支持本文的貢獻:

1. VOC07,2010和2012的最高的mAP。

2. 相比R-CNN、SPPnet,訓練和測試的速度更快。

3. 對VGG16卷積層Fine-tuning后提升了mAP。

4.1. Experimental setup

Our experiments use three pre-trained ImageNet models that are available online. The first is the CaffeNet (essentially AlexNet [14]) from R-CNN [9]. We alternatively refer to this CaffeNet as model S, for “small.” The second network is VGG_CNN_M_1024 from [3], which has the same depth as S, but is wider. We call this network model M, for “medium.” The final network is the very deep VGG16 model from [20]. Since this model is the largest, we call it model L. In this section, all experiments use single-scale training and testing (s = 600; see Section 5.2 for details).

4.1. 實驗設置

我們的實驗使用了三個經(jīng)過預訓練的ImageNet網(wǎng)絡模型,這些模型可以在線獲得(腳注:https://github.com/BVLC/caffe/wiki/Model-Zoo)。第一個是來自R-CNN [9]的CaffeNet(實質(zhì)上是AlexNet[14])。 我們將這個CaffeNet稱為模型S,即小模型。第二網(wǎng)絡是來自[3]的VGG_CNN_M_1024,其具有與S相同的深度,但是更寬。我們把這個網(wǎng)絡模型稱為M,即中等模型。最后一個網(wǎng)絡是來自[20]的非常深的VGG16模型。由于這個模型是最大的,我們稱之為L。在本節(jié)中,所有實驗都使用單尺度訓練和測試(s=600,詳見5.2節(jié))。

4.2. VOC 2010 and 2012 results

On these datasets, we compare Fast R-CNN (FRCN, for short) against the top methods on the comp4 (outside data) track from the public leaderboard (Table 2, Table 3). For the NUS_NIN_c2000 and BabyLearning methods, there are no associated publications at this time and we could not find exact information on the ConvNet architectures used; they are variants of the Network-in-Network design [17]. All other methods are initialized from the same pre-trained VGG16 network.

Table 2. VOC 2010 test detection average precision (%). BabyLearning uses a network based on [17]. All other methods use VGG16. Training set key: 12: VOC12 trainval, Prop.: proprietary dataset, 12+seg: 12 with segmentation annotations, 07++12: union of VOC07 trainval, VOC07 test, and VOC12 trainval.

Table 3. VOC 2012 test detection average precision (%). BabyLearning and NUS NIN c2000 use networks based on [17]. All other methods use VGG16. Training set key: see Table 2, Unk.: unknown.

4.2. VOC 2010和2012數(shù)據(jù)集上的結果

(如上面表2,表3所示)在這些數(shù)據(jù)集上,我們比較Fast R-CNN(簡稱FRCN)和公共排行榜中comp4(外部數(shù)據(jù))上的主流方法(腳注:http://host.robots.ox.ac.uk:8080/leaderboard)。對于NUS_NIN_c2000和BabyLearning方法,目前沒有相關的出版物,我們無法找到有關所使用的ConvNet體系結構的確切信息;它們是Network-in-Network的變體[17]。所有其他方法都通過相同的預訓練VGG16網(wǎng)絡進行了初始化。

2. VOC 2010測試檢測平均精度(%)。BabyLearning使用基于[17]的網(wǎng)絡。所有其他方法使用VGG16。訓練集關鍵字:12代表VOC12 trainval,Prop.代表專有數(shù)據(jù)集,12+seg代表具有分割注釋的VOC2012,07++12代表VOC2007 trainval、VOC2007 test和VOC2012 trainval的組合。

表3. VOC 2012測試檢測平均精度(%)。BabyLearning和NUS_NIN_c2000使用基于[17]的網(wǎng)絡。所有其他方法使用VGG16。訓練設置:見表2,Unk.代表未知。

Fast R-CNN achieves the top result on VOC12 with a mAP of 65.7% (and 68.4% with extra data). It is also two orders of magnitude faster than the other methods, which are all based on the “slow” R-CNN pipeline. On VOC10, SegDeepM [25] achieves a higher mAP than Fast R-CNN (67.2% vs. 66.1%). SegDeepM is trained on VOC12 trainval plus segmentation annotations; it is designed to boost R-CNN accuracy by using a Markov random field to reason over R-CNN detections and segmentations from the O2P [1] semantic-segmentation method. Fast R-CNN can be swapped into SegDeepM in place of R-CNN, which may lead to better results. When using the enlarged 07++12 training set (see Table 2 caption), Fast R-CNN’s mAP increases to 68.8%, surpassing SegDeepM.

Fast R-CNN在VOC12上獲得最高結果,mAP為65.7%(加上額外數(shù)據(jù)為68.4%)。它也比其他方法快兩個數(shù)量級,這些方法都基于比較“慢”的R-CNN網(wǎng)絡。在VOC10上,SegDeepM [25]獲得了比Fast R-CNN更高的mAP(67.2%對比66.1%)。SegDeepM使用VOC12 trainval訓練集及分割標注進行了訓練,它被設計為通過使用馬爾可夫隨機場推理R-CNN檢測和來自O2P [1]的語義分割方法的分割來提高R-CNN精度。Fast R-CNN可以替換SegDeepM中使用的R-CNN,這可以獲得更好的結果。當使用擴大的07++12訓練集(見表2標題)時,Fast R-CNN的mAP增加到68.8%,超過SegDeepM。

4.3. VOC 2007 results

On VOC07, we compare Fast R-CNN to R-CNN and SPPnet. All methods start from the same pre-trained VGG16 network and use bounding-box regression. The VGG16 SPPnet results were computed by the authors of [11]. SPPnet uses five scales during both training and testing. The improvement of Fast R-CNN over SPPnet illustrates that even though Fast R-CNN uses single-scale training and testing, fine-tuning the conv layers provides a large improvement in mAP (from 63.1% to 66.9%). R-CNN achieves a mAP of 66.0%. As a minor point, SPPnet was trained without examples marked as “difficult” in PASCAL. Removing these examples improves Fast R-CNN mAP to 68.1%. All other experiments use “difficult” examples.

4.3. VOC 2007數(shù)據(jù)集上的結果

在VOC07數(shù)據(jù)集上,我們比較Fast R-CNN與R-CNN和SPPnet的mAP。所有方法從相同的預訓練VGG16網(wǎng)絡開始,并使用bounding-box回歸。VGG16 SPPnet結果由論文[11]的作者提供。SPPnet在訓練和測試期間使用五個尺度。Fast R-CNN對SPPnet的改進說明,即使Fast R-CNN使用單個尺度訓練和測試,卷積層fine-tuning在mAP中貢獻了很大的改進(從63.1%到66.9%)。R-CNN的mAP為66.0%。其次,SPPnet是在PASCAL中沒有被標記為“困難”的樣本上進行了訓練。除去這些樣本,Fast R-CNN的mAP達到68.1%。所有其他實驗都使用被標記為“困難”的樣本。

4.4. Training and testing time

Fast training and testing times are our second main result. Table 4 compares training time (hours), testing rate (seconds per image), and mAP on VOC07 between Fast RCNN, R-CNN, and SPPnet. For VGG16, Fast R-CNN processes images 146× faster than R-CNN without truncated SVD and 213× faster with it. Training time is reduced by 9×, from 84 hours to 9.5. Compared to SPPnet, Fast RCNN trains VGG16 2.7× faster (in 9.5 vs. 25.5 hours) and tests 7× faster without truncated SVD or 10× faster with it. Fast R-CNN also eliminates hundreds of gigabytes of disk storage, because it does not cache features.

Table 4. Runtime comparison between the same models in Fast RCNN,

R-CNN, and SPPnet. Fast R-CNN uses single-scale mode. SPPnet uses the five scales specified in [11]. ?Timing provided by the authors of [11]. Times were measured on an Nvidia K40 GPU.

4.4. 訓練和測試時間

快速的訓練和測試是我們的第二個主要成果。表4比較了Fast RCNN,R-CNN和SPPnet之間的訓練時間(單位小時),測試速率(每秒圖像數(shù))和VOC07上的mAP。對于VGG16,沒有截斷SVD的Fast R-CNN處理圖像比R-CNN快146倍,有截斷SVD的R-CNN快213倍。訓練時間減少9倍,從84小時減少到9.5小時。與SPPnet相比,沒有截斷SVD的Fast RCNN訓練VGG16網(wǎng)絡比SPPnet快2.7倍(9.5小時相比于25.5小時),測試時間快7倍,有截斷SVD的Fast RCNN比的SPPnet快10倍。Fast R-CNN還不需要數(shù)百GB的磁盤存儲,因為它不緩存特征。

4. Fast RCNNR-CNNSPPnet中相同模型之間的運行時間比較。Fast R-CNN使用單尺度模式。SPPnet使用[11]中指定的五個尺度。?的時間由[11]的作者提供。在Nvidia K40 GPU上的進行了時間測量。

Truncated SVD. Truncated SVD can reduce detection time by more than 30% with only a small (0.3 percentage point) drop in mAP and without needing to perform additional fine-tuning after model compression. Fig. 2 illustrates how using the top 1024 singular values from the 25088×4096 matrix in VGG16’s fc6 layer and the top 256 singular values from the 4096×4096 fc7 layer reduces runtime with little loss in mAP. Further speed-ups are possible with smaller drops in mAP if one fine-tunes again after compression.

截斷的SVD。截斷的SVD可以將檢測時間減少30%以上,同時能保持mAP只有很小(0.3個百分點)的下降,并且無需在模型壓縮后執(zhí)行額外的fine-tune。圖2顯示了如何使用來自VGG16的fc6層中的25088×4096矩陣的頂部1024個奇異值和來自fc7層的4096×4096矩陣的頂部256個奇異值減少運行時間,而mAP幾乎沒有損失。如果在壓縮之后再次fine-tune,則可以在mAP更小下降的情況下進一步提升速度。

4.5. Which layers to fine-tune?

For the less deep networks considered in the SPPnet paper [11], fine-tuning only the fully connected layers appeared to be sufficient for good accuracy. We hypothesized that this result would not hold for very deep networks. To validate that fine-tuning the conv layers is important for VGG16, we use Fast R-CNN to fine-tune, but freeze the thirteen conv layers so that only the fully connected layers learn. This ablation emulates single-scale SPPnet training and decreases mAP from 66.9% to 61.4% (Table 5). This experiment verifies our hypothesis: training through the RoI pooling layer is important for very deep nets.

Table 5. Effect of restricting which layers are fine-tuned for VGG16. Fine-tuning ≥ fc6 emulates the SPPnet training algorithm [11], but using a single scale. SPPnet L results were obtained using five scales, at a significant (7×) speed cost.

4.5. fine-tune哪些層?

對于SPPnet論文[11]中提到的不太深的網(wǎng)絡,僅fine-tuning全連接層似乎足以獲得良好的準確度。我們假設這個結果不適用于非常深的網(wǎng)絡。為了驗證fine-tune卷積層對于VGG16的重要性,我們使用Fast R-CNN進行fine-tune,但凍結十三個卷積層,以便只有全連接層學習。這種消融模擬了單尺度SPPnet訓練,將mAP從66.9%降低到61.4%(如表5所示)。這個實驗驗證了我們的假設:通過RoI池化層的訓練對于非常深的網(wǎng)是重要的。

表5. VGG16 fine-tune的層進行限制產(chǎn)生的影響。fine-tune fc6以上的層模擬了單尺度SPPnet訓練算法[11]。SPPnet L是使用五個尺度,以顯著(7倍)的速度成本獲得的結果。

Does this mean that all conv layers should be fine-tuned? In short, no. In the smaller networks (S and M) we find that conv1 is generic and task independent (a well-known fact [14]). Allowing conv1 to learn, or not, has no meaningful effect on mAP. For VGG16, we found it only necessary to update layers from conv3_1 and up (9 of the 13 conv layers). This observation is pragmatic: (1) updating from conv2_1 slows training by 1.3× (12.5 vs. 9.5 hours) compared to learning from conv3_1; and (2) updating from conv1_1 over-runs GPU memory. The difference in mAP when learning from conv2_1 up was only +0.3 points (Table 5, last column). All Fast R-CNN results in this paper using VGG16 fine-tune layers conv3_1 and up; all experiments with models S and M fine-tune layers conv2 and up.

這是否意味著所有卷積層應該進行fine-tune?簡而言之,不是的。在較小的網(wǎng)絡(S和M)中,我們發(fā)現(xiàn)conv1(譯者注:第一個卷積層)是通用的、不依賴于特定任務的(一個眾所周知的事實[14])。允許conv1學習或不學習,對mAP沒有很關鍵的影響。對于VGG16,我們發(fā)現(xiàn)只需要更新conv3_1及以上(13個卷積層中的9個)的層。這個觀察結果是實用的:(1)與從conv3_1更新相比,從conv2_1更新使訓練變慢1.3倍(12.5小時對比9.5小時),(2)從conv1_1更新時GPU內(nèi)存不夠用。從conv2_1學習時mAP僅增加0.3個點(如表5最后一列所示)。本文中所有Fast R-CNN的結果都fine-tune VGG16 conv3_1及以上的層,所有用模型S和M的實驗fine-tune conv2及以上的層。

5. Design evaluation

We conducted experiments to understand how Fast R-CNN compares to R-CNN and SPPnet, as well as to evaluate design decisions. Following best practices, we performed these experiments on the PASCAL VOC07 dataset.

5. 設計評估

我們通過實驗來了解Fast RCNN與R-CNN和SPPnet的比較,以及評估設計決策。按照最佳實踐,我們在PASCAL VOC07數(shù)據(jù)集上進行了這些實驗。

5.1. Does multi-task training help?

Multi-task training is convenient because it avoids managing a pipeline of sequentially-trained tasks. But it also has the potential to improve results because the tasks influence each other through a shared representation (the ConvNet) [2]. Does multi-task training improve object detection accuracy in Fast R-CNN?

5.1. 多任務訓練有用嗎?

多任務訓練是方便的,因為它避免管理順序訓練任務的pipeline。但它也有可能改善結果,因為任務通過共享的表示(ConvNet)[2]相互影響。多任務訓練能提高Fast R-CNN中的目標檢測精度嗎?

To test this question, we train baseline networks that use only the classification loss, Lcls, in Eq. 1 (i.e., setting λ= 0). These baselines are printed for models S, M, and L in the first column of each group in Table 6. Note that these models do not have bounding-box regressors. Next (second column per group), we take networks that were trained with the multi-task loss (Eq. 1, λ=1), but we disable bounding-box regression at test time. This isolates the networks’ classification accuracy and allows an apples-to-apples comparison with the baseline networks.

Table 6. Multi-task training (forth column per group) improves mAP over piecewise training (third column per group).

為了測試這個問題,我們訓練僅使用公式(1)中的分類損失Lcls(即設置λ=0)的基準網(wǎng)絡。這些baselines是表6中每組的第一列。請注意,這些模型沒有bounding-box回歸器。接下來(每組的第二列),是我們采用多任務損失(公式(1),λ=1)訓練的網(wǎng)絡,但是我們在測試時禁用bounding-box回歸。這隔離了網(wǎng)絡的分類準確性,并允許與基準網(wǎng)絡的相似類別之類的比較(譯者注:apples-to-apples comparision意思是比較兩個相同類別的事或物)。

表6. 多任務訓練(每組第四列)改進了分段訓練(每組第三列)的mAP。

Across all three networks we observe that multi-task training improves pure classification accuracy relative to training for classification alone. The improvement ranges from +0.8 to +1.1 mAP points, showing a consistent positive effect from multi-task learning.

在所有三個網(wǎng)絡中,我們觀察到多任務訓練相對于單獨的分類訓練提高了純分類準確度。改進范圍從+0.8到+1.1個mAP點,顯示了多任務學習的一致的積極效果。

Finally, we take the baseline models (trained with only the classification loss), tack on the bounding-box regression layer, and train them with Lloc while keeping all other network parameters frozen. The third column in each group shows the results of this stage-wise training scheme: mAP improves over column one, but stage-wise training underperforms multi-task training (forth column per group).

最后,我們采用baseline模型(僅使用分類損失進行訓練),加上bounding-box回歸層,并使用Lloc訓練它們,同時保持所有其他網(wǎng)絡參數(shù)凍結。每組中的第三列顯示了這種逐級訓練方案的結果:mAP相對于第一列有改進,但逐級訓練表現(xiàn)不如多任務訓練(每組第四列)。

5.2. Scale invariance: to brute force or finesse?

We compare two strategies for achieving scale-invariant object detection: brute-force learning (single scale) and image pyramids (multi-scale). In either case, we define the scale s of an image to be the length of its shortest side.

5.2. 尺度不變性:暴力或精細?

我們比較兩個策略實現(xiàn)尺度不變物體檢測:暴力學習(單尺度)和圖像金字塔(多尺度)。在任一情況下,我們將尺度s定義為圖像短邊的長度。

All single-scale experiments use s = 600 pixels; s may be less than 600 for some images as we cap the longest image side at 1000 pixels and maintain the image’s aspect ratio. These values were selected so that VGG16 fits in GPU memory during fine-tuning. The smaller models are not memory bound and can benefit from larger values of s; however, optimizing s for each model is not our main concern. We note that PASCAL images are 384 × 473 pixels on average and thus the single-scale setting typically upsamples images by a factor of 1.6. The average effective stride at the RoI pooling layer is thus ≈ 10 pixels.

所有單尺度實驗使用s=600像素,對于一些圖像,s可以小于600,因為我們保持橫縱比縮放圖像,并限制其最長邊為1000像素。選擇這些值使得VGG16在fine-tune期間不至于GPU內(nèi)存不足。較小的模型占用顯存更少,所以可受益于較大的s值。然而,每個模型的優(yōu)化不是我們的主要的關注點。我們注意到PASCAL圖像平均大小是384×473像素的,因此單尺度設置通常以1.6的倍數(shù)對圖像進行上采樣。因此,RoI池化層的平均有效步長約為10像素。

In the multi-scale setting, we use the same five scales specified in [11] (s ∈ {480, 576, 688, 864, 1200}) to facilitate comparison with SPPnet. However, we cap the longest side at 2000 pixels to avoid exceeding GPU memory.

在多尺度模型配置中,我們使用[11]中指定的相同的五個尺度(s∈{480,576,688,864,1200}),以方便與SPPnet進行比較。但是,我們限制長邊最大為2000像素,以避免GPU內(nèi)存不足。

Table 7 shows models S and M when trained and tested with either one or five scales. Perhaps the most surprising result in [11] was that single-scale detection performs almost as well as multi-scale detection. Our findings confirm their result: deep ConvNets are adept at directly learning scale invariance. The multi-scale approach offers only a small increase in mAP at a large cost in compute time (Table 7). In the case of VGG16 (model L), we are limited to using a single scale by implementation details. Yet it achieves a mAP of 66.9%, which is slightly higher than the 66.0% reported for R-CNN [10], even though R-CNN uses “infinite” scales in the sense that each proposal is warped to a canonical size.

Table 7. Multi-scale vs. single scale. SPPnet ZF (similar to model S) results are from [11]. Larger networks with a single-scale offer the best speed / accuracy tradeoff. (L cannot use multi-scale in our implementation due to GPU memory constraints.)

表7顯示了當使用一個或五個尺度進行訓練和測試時的模型S和M的結果。也許在[11]中最令人驚訝的結果是單尺度檢測幾乎與多尺度檢測一樣好。我們的研究結果能證明他們的結果:深度卷積網(wǎng)絡擅長直接學習到尺度的不變性。多尺度方法消耗大量的計算時間僅帶來了很小的mAP提升(表7)。在VGG16(模型L)的情況下,我們實現(xiàn)細節(jié)限制而只能使用單個尺度。然而,它得到了66.9%的mAP,略高于R-CNN[10]的66.0%,盡管R-CNN在某種意義上使用了“無限”尺度,但每個候選區(qū)域還是被縮放為規(guī)范大小。

7. 多尺度對比單尺度。SPPnet ZF(類似于模型S)的結果來自[11]。具有單尺度的較大網(wǎng)絡具有最佳的速度/精度平衡。(L在我們的實現(xiàn)中不能使用多尺度,因為GPU內(nèi)存限制。)

Since single-scale processing offers the best tradeoff between speed and accuracy, especially for very deep models, all experiments outside of this sub-section use single-scale training and testing with s = 600 pixels.

由于單尺度處理能夠權衡好速度和精度之間的關系,特別是對于非常深的模型,本小節(jié)以外的所有實驗使用單尺度s=600像素的尺度進行訓練和測試。

5.3. Do we need more training data?

A good object detector should improve when supplied with more training data. Zhu et al. [24] found that DPM [8] mAP saturates after only a few hundred to thousand training examples. Here we augment the VOC07 trainval set with the VOC12 trainval set, roughly tripling the number of images to 16.5k, to evaluate Fast R-CNN. Enlarging the training set improves mAP on VOC07 test from 66.9% to 70.0% (Table 1). When training on this dataset we use 60k mini-batch iterations instead of 40k.

Table 1. VOC 2007 test detection average precision (%). All methods use VGG16. Training set key: 07: VOC07 trainval, 07\diff: 07 without “difficult” examples, 07+12: union of 07 and VOC12 trainval. ySPPnet results were prepared by the authors of [11].

5.3. 我們需要更多訓練數(shù)據(jù)嗎?

當提供更多的訓練數(shù)據(jù)時,好的目標檢測器應該會進一步提升性能。Zhu等人[24]發(fā)現(xiàn)DPM [8]模型的mAP在只有幾百到幾千個訓練樣本的時候就達到飽和了。實驗中我們增加VOC07 trainval訓練集與VOC12 trainval訓練集,大約增加到三倍的圖像使其數(shù)量達到16.5k,以評估Fast R-CNN。擴大訓練集將VOC07測試集的mAP從66.9%提高到70.0%(表1)。使用這個數(shù)據(jù)集進行訓練時,我們使用60k次小批量迭代而不是40k。

1. VOC 2007測試檢測平均精度(%)。所有方法都使用VGG16。 訓練集關鍵字:07代表VOC07 trainval,07\diff代表07沒有“困難”的樣本,07 + 12表示VOC07和VOC12 trainval的組合。SPPnet結果由[11]的作者提供。

We perform similar experiments for VOC10 and 2012, for which we construct a dataset of 21.5k images from the union of VOC07 trainval, test, and VOC12 trainval. When training on this dataset, we use 100k SGD iterations and lower the learning rate by 0.1× each 40k iterations (instead of each 30k). For VOC10 and 2012, mAP improves from 66.1% to 68.8% and from 65.7% to 68.4%, respectively.

我們對VOC2010和2012進行類似的實驗,我們用VOC07 trainval、test和VOC12 trainval數(shù)據(jù)集構造了21.5k個圖像的數(shù)據(jù)集。當用這個數(shù)據(jù)集訓練時,我們使用100k次SGD迭代,并且每40k次迭代(而不是每30k次)降低學習率10倍。對于VOC2010和2012,mAP分別從66.1%提高到68.8%和從65.7%提高到68.4%。

5.4. Do SVMs outperform softmax?

Fast R-CNN uses the softmax classifier learnt during fine-tuning instead of training one-vs-rest linear SVMs post-hoc, as was done in R-CNN and SPPnet. To understand the impact of this choice, we implemented post-hoc SVM training with hard negative mining in Fast R-CNN. We use the same training algorithm and hyper-parameters as in R-CNN.

5.4. SVM分類是否優(yōu)于Softmax?

Fast R-CNN在fine-tune期間使用softmax分類器學習,而不是像R-CNN和SPPnet在最后訓練一對多線性SVM。為了理解這種選擇的影響,我們在Fast R-CNN中進行了具有難負采樣的事后SVM訓練。我們使用與R-CNN中相同的訓練算法和超參數(shù)。

Table 8 shows softmax slightly outperforming SVM for all three networks, by +0.1 to +0.8 mAP points. This effect is small, but it demonstrates that “one-shot” fine-tuning is sufficient compared to previous multi-stage training approaches. We note that softmax, unlike one-vs-rest SVMs, introduces competition between classes when scoring a RoI.

Table 8. Fast R-CNN with softmax vs. SVM (VOC07 mAP).

如表8所示,對于所有三個網(wǎng)絡,Softmax略優(yōu)于SVM,mAP分別提高了0.1和0.8個點。這個提升效果很小,但是它表明與先前的多級訓練方法相比,“一次性”fine-tune是足夠的。我們注意到,不像一對多的SVM那樣,Softmax會在計算RoI得分時引入類別之間的競爭。

表8. 用Softmax的Fast R-CNN對比用SVM的Fast RCNN(VOC07 mAP)。

5.5. Are more proposals always better?

There are (broadly) two types of object detectors: those that use a sparse set of object proposals (e.g., selective search [21]) and those that use a dense set (e.g., DPM [8]). Classifying sparse proposals is a type of cascade [22] in which the proposal mechanism first rejects a vast number of candidates leaving the classifier with a small set to evaluate. This cascade improves detection accuracy when applied to DPM detections [21]. We find evidence that the proposal-classifier cascade also improves Fast R-CNN accuracy.

5.5. 更多的候選區(qū)域更好嗎?

(廣義上)存在兩種類型的目標檢測器:一類是使用候選區(qū)域稀疏集合檢測器(例如,selective search [21])和另一類使用密集集合(例如DPM [8])。分類稀疏候選區(qū)域通過一種級聯(lián)方式[22]的,其中候選機制首先舍棄大量候選區(qū)域,留下較小的集合讓分類器來評估。當應用于DPM檢測時,這種級聯(lián)的方式提高了檢測精度[21]。我們發(fā)現(xiàn)proposal-classifier級聯(lián)方式也提高了Fast R-CNN的精度。

Using selective search’s quality mode, we sweep from 1k to 10k proposals per image, each time re-training and re-testing model M. If proposals serve a purely computational role, increasing the number of proposals per image should not harm mAP.

使用selective search的質(zhì)量模式,我們對每個圖像掃描1k到10k個候選框,每次重新訓練和重新測試模型M。如果候選框純粹扮演計算的角色,增加每個圖像的候選框數(shù)量不會影響mAP。

We find that mAP rises and then falls slightly as the proposal count increases (Fig. 3, solid blue line). This experiment shows that swamping the deep classifier with more proposals does not help, and even slightly hurts, accuracy.

我們發(fā)現(xiàn)隨著候選區(qū)域數(shù)量的增加,mAP先上升然后略微下降(如圖3藍色實線所示)。這個實驗表明,深度神經(jīng)網(wǎng)絡分類器使用更多的候選區(qū)域沒有幫助,甚至稍微有點影響準確性。

This result is difficult to predict without actually running the experiment. The state-of-the-art for measuring object proposal quality is Average Recall (AR) [12]. AR correlates well with mAP for several proposal methods using R-CNN, when using a fixed number of proposals per image. Fig. 3 shows that AR (solid red line) does not correlate well with mAP as the number of proposals per image is varied. AR must be used with care; higher AR due to more proposals does not imply that mAP will increase. Fortunately, training and testing with model M takes less than 2.5 hours. Fast R-CNN thus enables efficient, direct evaluation of object proposal mAP, which is preferable to proxy metrics.

Figure 3. VOC07 test mAP and AR for various proposal schemes.

如果不實際進行實驗,這個結果很難預測。用于評估候選區(qū)域質(zhì)量的最流行的技術是平均召回率(Average Recall, AR) [12]。當對每個圖像使用固定數(shù)量的候選區(qū)域時,AR與使用R-CNN的幾種候選區(qū)域方法時的mAP具有良好的相關性。圖3表明AR(紅色實線)與mAP不相關,因為每個圖像的候選區(qū)域數(shù)量是變化的。AR必須謹慎使用,由于更多的候選區(qū)域會得到更高的AR,然而這并不意味著mAP也會增加。幸運的是,使用模型M的訓練和測試需要不到2.5小時。因此,Fast R-CNN能夠高效地、直接地評估目標候選區(qū)域的mAP,是很合適的代理指標。

圖3. 各種候選區(qū)域方案下VOC07測試的mAPAR

We also investigate Fast R-CNN when using densely generated boxes (over scale, position, and aspect ratio), at a rate of about 45k boxes / image. This dense set is rich enough that when each selective search box is replaced by its closest (in IoU) dense box, mAP drops only 1 point (to 57.7%, Fig. 3, blue triangle).

我們還研究了當使用密集生成框(在不同縮放尺度、位置和寬高比上)大約45k個框/圖像比例時的Fast R-CNN網(wǎng)絡模型。這個密集集足夠大,當每個selective search框被其最近(IoU)密集框替換時,mAP只降低1個點(到57.7%,如圖3藍色三角形所示)。

The statistics of the dense boxes differ from those of selective search boxes. Starting with 2k selective search boxes, we test mAP when adding a random sample of 1000×{2,4,6,8,10,32,45} dense boxes. For each experiment we re-train and re-test model M. When these dense boxes are added, mAP falls more strongly than when adding more selective search boxes, eventually reaching 53.0%.

密集框的統(tǒng)計信息與selective search框的統(tǒng)計信息不同。從2k個selective search框開始,我們再從1000×{2,4,6,8,10,32,45}中隨機添加密集框,并測試mAP。對于每個實驗,我們重新訓練和重新測試模型M。當添加這些密集框時,mAP比添加更多選擇性搜索框時下降得更強,最終達到53.0%。

We also train and test Fast R-CNN using only dense boxes (45k / image). This setting yields a mAP of 52.9% (blue diamond). Finally, we check if SVMs with hard negative mining are needed to cope with the dense box distribution. SVMs do even worse: 49.3% (blue circle).

我們還訓練和測試了Fast R-CNN只使用密集框(45k/圖像)。此設置的mAP為52.9%(藍色菱形)。最后,我們檢查是否需要使用難樣本重訓練的SVM來處理密集框分布。SVM結果更糟糕:49.3%(藍色圓圈)。

5.6. Preliminary MS COCO results

We applied Fast R-CNN (with VGG16) to the MS COCO dataset [18] to establish a preliminary baseline. We trained on the 80k image training set for 240k iterations and evaluated on the “test-dev” set using the evaluation server. The PASCAL-style mAP is 35.9%; the new COCO-style AP, which also averages over IoU thresholds, is 19.7%.

5.6. MS COCO初步結果

我們將Fast R-CNN(使用VGG16)應用于MS COCO數(shù)據(jù)集[18],以建立初始baseline。我們在80k圖像訓練集上進行了240k次迭代訓練,并使用評估服務器對“test-dev”數(shù)據(jù)集進行評估。PASCAL形式的mAP為35.9%;新的COCO標準下的AP為19.7%,即超過IoU閾值的平均值。

6. Conclusion

This paper proposes Fast R-CNN, a clean and fast update to R-CNN and SPPnet. In addition to reporting state-of-the-art detection results, we present detailed experiments that we hope provide new insights. Of particular note, sparse object proposals appear to improve detector quality. This issue was too costly (in time) to probe in the past, but becomes practical with Fast R-CNN. Of course, there may exist yet undiscovered techniques that allow dense boxes to perform as well as sparse proposals. Such methods, if developed, may help further accelerate object detection.

6. 結論

本文提出Fast R-CNN,一個對R-CNN和SPPnet更新的簡潔、快速版本。除了報告目前最先進的檢測結果之外,我們還提供了詳細的實驗,希望提供新的思路。特別值得注意的是,稀疏目標候選區(qū)域似乎提高了檢測器的質(zhì)量。過去這個問題代價太大(在時間上)而一直無法深入探索,但Fast R-CNN使其變得可能。當然,可能存在未發(fā)現(xiàn)的技術,使得密集框能夠達到與稀疏候選框類似的效果。如果這樣的方法被開發(fā)出來,則可以幫助進一步加速目標檢測。

Acknowledgements. I thank Kaiming He, Larry Zitnick, and Piotr Doll′ar for helpful discussions and encouragement.

致謝:感謝Kaiming He,Larry Zitnick和Piotr Dollár的有益的討論和鼓勵。

References

參考文獻

[1] J. Carreira, R. Caseiro, J. Batista, and C. Sminchisescu. Semantic segmentation with second-order pooling. In ECCV,2012. 5

[2] R. Caruana. Multitask learning. Machine learning, 28(1), 1997. 6

[3] K. Chatfield, K. Simonyan, A. Vedaldi, and A. Zisserman. Return of the devil in the details: Delving deep into convolutional nets. In BMVC, 2014. 5

[4] J. Deng, W. Dong, R. Socher, L.-J. Li, K. Li, and L. Fei-Fei. ImageNet: A large-scale hierarchical image database. In CVPR, 2009. 2

[5] E. Denton, W. Zaremba, J. Bruna, Y. LeCun, and R. Fergus. Exploiting linear structure within convolutional networks for efficient evaluation. In NIPS, 2014. 4

[6] D. Erhan, C. Szegedy, A. Toshev, and D. Anguelov. Scalable object detection using deep neural networks. In CVPR, 2014. 3

[7] M. Everingham, L. Van Gool, C. K. I.Williams, J.Winn, and A. Zisserman. The PASCAL Visual Object Classes (VOC) Challenge. IJCV, 2010. 1

[8] P. Felzenszwalb, R. Girshick, D. McAllester, and D. Ramanan. Object detection with discriminatively trained part based models. TPAMI, 2010. 3, 7, 8

[9] R. Girshick, J. Donahue, T. Darrell, and J. Malik. Rich feature hierarchies for accurate object detection and semantic segmentation. In CVPR, 2014. 1, 3, 4, 8

[10] R. Girshick, J. Donahue, T. Darrell, and J. Malik. Regionbased convolutional networks for accurate object detection and segmentation. TPAMI, 2015. 5, 7, 8

[11] K. He, X. Zhang, S. Ren, and J. Sun. Spatial pyramid pooling in deep convolutional networks for visual recognition. In ECCV, 2014. 1, 2, 3, 4, 5, 6, 7

[12] J. H. Hosang, R. Benenson, P. Doll′ar, and B. Schiele. What makes for effective detection proposals? arXiv preprint arXiv:1502.05082, 2015. 8

[13] Y. Jia, E. Shelhamer, J. Donahue, S. Karayev, J. Long, R. Girshick, S. Guadarrama, and T. Darrell. Caffe: Convolutional architecture for fast feature embedding. In Proc. of the ACM International Conf. on Multimedia, 2014. 2

[14] A. Krizhevsky, I. Sutskever, and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012. 1, 4, 6

[15] S. Lazebnik, C. Schmid, and J. Ponce. Beyond bags of features: Spatial pyramid matching for recognizing natural scene categories. In CVPR, 2006. 1

[16] Y. LeCun, B. Boser, J. Denker, D. Henderson, R. Howard, W. Hubbard, and L. Jackel. Backpropagation applied to handwritten zip code recognition. Neural Comp., 1989. 1

[17] M. Lin, Q. Chen, and S. Yan. Network in network. In ICLR, 2014. 5

[18] T. Lin, M. Maire, S. Belongie, L. Bourdev, R. Girshick, J. Hays, P. Perona, D. Ramanan, P. Doll′ar, and C. L. Zitnick. Microsoft COCO: common objects in context. arXiv e-prints, arXiv:1405.0312 [cs.CV], 2014. 8

[19] P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun. OverFeat: Integrated Recognition, Localization and Detection using Convolutional Networks. In ICLR, 2014. 1, 3

[20] K. Simonyan and A. Zisserman. Very deep convolutional networks for large-scale image recognition. In ICLR, 2015. 1, 5

[21] J. Uijlings, K. van de Sande, T. Gevers, and A. Smeulders. Selective search for object recognition. IJCV, 2013. 8

[22] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In CVPR, 2001. 8

[23] J. Xue, J. Li, and Y. Gong. Restructuring of deep neural network acoustic models with singular value decomposition. In Interspeech, 2013. 4

[24] X. Zhu, C. Vondrick, D. Ramanan, and C. Fowlkes. Do we need more training data or better models for object detection? In BMVC, 2012. 7

[25] Y. Zhu, R. Urtasun, R. Salakhutdinov, and S. Fidler. segDeepM: Exploiting segmentation and context in deep neural networks for object detection. In CVPR, 2015. 1, 5

總結

以上是生活随笔為你收集整理的目标检测经典论文——Fast R-CNN论文翻译(中英文对照版):Fast R-CNN(Ross Girshick, Microsoft Research(微软研究院))的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

国内丰满熟女出轨videos | 丰满岳乱妇在线观看中字无码 | 久激情内射婷内射蜜桃人妖 | 成人性做爰aaa片免费看不忠 | 天干天干啦夜天干天2017 | 99久久人妻精品免费一区 | 午夜嘿嘿嘿影院 | 性开放的女人aaa片 | 久久天天躁狠狠躁夜夜免费观看 | 日韩av无码中文无码电影 | 波多野结衣一区二区三区av免费 | 成人欧美一区二区三区 | 亚洲日韩av一区二区三区四区 | 乱人伦人妻中文字幕无码 | 日本一区二区三区免费高清 | 成人aaa片一区国产精品 | 精品偷拍一区二区三区在线看 | 中文字幕无码日韩欧毛 | 国产av无码专区亚洲awww | 欧美日韩一区二区三区自拍 | 国产sm调教视频在线观看 | 久久99精品国产麻豆蜜芽 | 丰满少妇人妻久久久久久 | 国产成人精品视频ⅴa片软件竹菊 | 国产精品对白交换视频 | 97精品人妻一区二区三区香蕉 | 人妻少妇被猛烈进入中文字幕 | 国产乱人偷精品人妻a片 | 亚洲高清偷拍一区二区三区 | 亚洲乱码日产精品bd | 亚洲国产精品久久人人爱 | 国产精品丝袜黑色高跟鞋 | 久久人人爽人人爽人人片av高清 | 2020最新国产自产精品 | 国产三级精品三级男人的天堂 | 巨爆乳无码视频在线观看 | 午夜精品久久久久久久久 | 极品尤物被啪到呻吟喷水 | 超碰97人人做人人爱少妇 | 初尝人妻少妇中文字幕 | 美女张开腿让人桶 | 成人欧美一区二区三区黑人 | 久久精品国产亚洲精品 | 久久无码中文字幕免费影院蜜桃 | 亚洲欧洲日本综合aⅴ在线 | 精品夜夜澡人妻无码av蜜桃 | √天堂资源地址中文在线 | 狠狠色噜噜狠狠狠狠7777米奇 | 日本精品久久久久中文字幕 | 极品嫩模高潮叫床 | 亚洲gv猛男gv无码男同 | 荡女精品导航 | 亚洲精品久久久久中文第一幕 | 婷婷综合久久中文字幕蜜桃三电影 | 精品国产一区av天美传媒 | 国产精品a成v人在线播放 | 人人妻人人澡人人爽欧美精品 | 国产综合在线观看 | 欧美人与物videos另类 | 亚洲国产精品成人久久蜜臀 | 亚洲精品国产a久久久久久 | 欧美三级a做爰在线观看 | 网友自拍区视频精品 | 99国产精品白浆在线观看免费 | 亚洲s色大片在线观看 | 性欧美牲交xxxxx视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 精品无码国产自产拍在线观看蜜 | 熟妇激情内射com | 131美女爱做视频 | 啦啦啦www在线观看免费视频 | 国产精品亚洲五月天高清 | 亚洲男人av天堂午夜在 | 中文字幕人妻无码一区二区三区 | 午夜福利一区二区三区在线观看 | 老司机亚洲精品影院无码 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 暴力强奷在线播放无码 | 国产香蕉尹人视频在线 | 99视频精品全部免费免费观看 | 久久99精品久久久久久动态图 | 日日碰狠狠躁久久躁蜜桃 | 免费国产成人高清在线观看网站 | 在线观看国产一区二区三区 | 国产综合久久久久鬼色 | 永久免费观看美女裸体的网站 | 沈阳熟女露脸对白视频 | 亚洲一区二区三区偷拍女厕 | 欧美 丝袜 自拍 制服 另类 | 国产真实乱对白精彩久久 | 欧美野外疯狂做受xxxx高潮 | 伊人久久大香线蕉亚洲 | 中文字幕人妻无码一区二区三区 | 国产人妻大战黑人第1集 | 强伦人妻一区二区三区视频18 | 亚洲成a人片在线观看无码 | 成人欧美一区二区三区黑人免费 | 亚洲熟妇色xxxxx欧美老妇 | 中文精品久久久久人妻不卡 | 性史性农村dvd毛片 | 婷婷五月综合缴情在线视频 | 无套内射视频囯产 | 国产精品无码久久av | 亚洲一区二区三区国产精华液 | 少妇人妻偷人精品无码视频 | 亚洲综合无码一区二区三区 | 欧洲美熟女乱又伦 | 亚洲精品久久久久avwww潮水 | 亚洲日韩av一区二区三区中文 | 国产凸凹视频一区二区 | 中文字幕日产无线码一区 | 成人试看120秒体验区 | 少妇性l交大片 | 欧美老妇交乱视频在线观看 | 丁香啪啪综合成人亚洲 | 蜜桃av抽搐高潮一区二区 | 中文字幕无线码免费人妻 | 日本乱偷人妻中文字幕 | 国内丰满熟女出轨videos | 国产另类ts人妖一区二区 | 欧美 亚洲 国产 另类 | 国产亚洲精品久久久久久久久动漫 | 亚洲无人区午夜福利码高清完整版 | 亚洲成a人一区二区三区 | 国产成人无码av在线影院 | 成在人线av无码免观看麻豆 | 欧美大屁股xxxxhd黑色 | 久久无码人妻影院 | 国产香蕉尹人视频在线 | 少妇被黑人到高潮喷出白浆 | 精品久久久久久人妻无码中文字幕 | 日本欧美一区二区三区乱码 | 最近中文2019字幕第二页 | 亚洲阿v天堂在线 | 国内综合精品午夜久久资源 | 国产特级毛片aaaaaa高潮流水 | 亚洲人成网站色7799 | 亚洲区小说区激情区图片区 | 中文字幕日产无线码一区 | 99国产精品白浆在线观看免费 | 无码国产乱人伦偷精品视频 | 亚洲日韩一区二区 | 欧美一区二区三区视频在线观看 | 精品国产乱码久久久久乱码 | 欧美freesex黑人又粗又大 | 国产香蕉97碰碰久久人人 | 久久久久久久久蜜桃 | 人妻有码中文字幕在线 | 欧美三级不卡在线观看 | 无套内谢的新婚少妇国语播放 | 欧美xxxx黑人又粗又长 | 久久久国产一区二区三区 | 国产区女主播在线观看 | 欧美午夜特黄aaaaaa片 | 久久久久免费看成人影片 | 欧美日韩一区二区综合 | 在线亚洲高清揄拍自拍一品区 | 熟妇人妻无码xxx视频 | 色五月五月丁香亚洲综合网 | 极品尤物被啪到呻吟喷水 | 亚洲一区二区三区在线观看网站 | 亚洲 a v无 码免 费 成 人 a v | 国产色在线 | 国产 | 欧美激情一区二区三区成人 | av无码不卡在线观看免费 | 在线天堂新版最新版在线8 | 免费国产成人高清在线观看网站 | 高潮毛片无遮挡高清免费 | 久久精品国产精品国产精品污 | 亚洲精品成a人在线观看 | 久久精品国产一区二区三区 | 大地资源网第二页免费观看 | 天堂无码人妻精品一区二区三区 | 中文字幕乱妇无码av在线 | 成人试看120秒体验区 | 国产精品第一国产精品 | 亚洲人交乣女bbw | 午夜丰满少妇性开放视频 | 午夜肉伦伦影院 | 久久无码中文字幕免费影院蜜桃 | 日韩无码专区 | 日本又色又爽又黄的a片18禁 | 色综合久久久无码中文字幕 | 午夜肉伦伦影院 | 女人被男人爽到呻吟的视频 | 国产精品亚洲综合色区韩国 | 国产亚洲日韩欧美另类第八页 | √天堂中文官网8在线 | 亚洲人成网站在线播放942 | 水蜜桃色314在线观看 | 亚洲国产欧美在线成人 | 中文毛片无遮挡高清免费 | 又湿又紧又大又爽a视频国产 | 久久精品国产99久久6动漫 | 久久午夜无码鲁丝片午夜精品 | 55夜色66夜色国产精品视频 | 亚洲精品一区二区三区在线观看 | 国产内射爽爽大片视频社区在线 | 国产超级va在线观看视频 | 国产热a欧美热a在线视频 | 亚洲一区二区三区在线观看网站 | 97色伦图片97综合影院 | 欧美野外疯狂做受xxxx高潮 | 成人性做爰aaa片免费看 | 大屁股大乳丰满人妻 | 国产香蕉尹人视频在线 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 精品人妻中文字幕有码在线 | 国产精品无码mv在线观看 | 国产网红无码精品视频 | 蜜桃av抽搐高潮一区二区 | 中国大陆精品视频xxxx | 亚洲日本va午夜在线电影 | 无码国产乱人伦偷精品视频 | 久久婷婷五月综合色国产香蕉 | 日韩av无码一区二区三区不卡 | 久久天天躁夜夜躁狠狠 | 欧美精品无码一区二区三区 | 成人无码精品一区二区三区 | 欧美老熟妇乱xxxxx | 色综合久久久久综合一本到桃花网 | 亚洲中文字幕va福利 | 久久人人爽人人爽人人片av高清 | 一本无码人妻在中文字幕免费 | 少妇性l交大片欧洲热妇乱xxx | 亚洲一区二区观看播放 | 无码人妻丰满熟妇区毛片18 | 国产成人午夜福利在线播放 | 无码人妻少妇伦在线电影 | 亚洲码国产精品高潮在线 | 久久久久亚洲精品中文字幕 | 国产精品毛片一区二区 | 国产在线精品一区二区高清不卡 | 成人欧美一区二区三区黑人免费 | 亚洲乱码国产乱码精品精 | 中文字幕无线码免费人妻 | 亚洲欧美国产精品久久 | 久9re热视频这里只有精品 | a在线亚洲男人的天堂 | 色窝窝无码一区二区三区色欲 | 成人免费无码大片a毛片 | 色狠狠av一区二区三区 | 在线精品国产一区二区三区 | 日韩欧美中文字幕在线三区 | 亚洲欧美日韩国产精品一区二区 | 色综合天天综合狠狠爱 | 精品国产一区二区三区四区 | 2020最新国产自产精品 | 国产精品久久国产三级国 | 亚洲成a人片在线观看无码 | 一二三四社区在线中文视频 | 免费无码的av片在线观看 | 亚洲人成网站在线播放942 | 国产精品自产拍在线观看 | 久久久久成人精品免费播放动漫 | 国产精品高潮呻吟av久久4虎 | 日本www一道久久久免费榴莲 | 久久久成人毛片无码 | 亚洲综合久久一区二区 | 亚洲国产欧美国产综合一区 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 成人毛片一区二区 | 欧美国产日韩久久mv | 性史性农村dvd毛片 | 少妇被黑人到高潮喷出白浆 | 99久久无码一区人妻 | 午夜福利试看120秒体验区 | 国产av人人夜夜澡人人爽麻豆 | 小鲜肉自慰网站xnxx | 欧美熟妇另类久久久久久不卡 | 色婷婷欧美在线播放内射 | 亚洲人成无码网www | 欧美精品国产综合久久 | 国产午夜亚洲精品不卡下载 | 激情国产av做激情国产爱 | 亚洲区小说区激情区图片区 | 亚洲中文字幕无码一久久区 | 蜜臀aⅴ国产精品久久久国产老师 | 精品人妻中文字幕有码在线 | 国产又爽又猛又粗的视频a片 | 亚洲精品国偷拍自产在线观看蜜桃 | 日韩无套无码精品 | 国产乱码精品一品二品 | 亚洲精品久久久久中文第一幕 | 国产精品多人p群无码 | 国产深夜福利视频在线 | 蜜桃av抽搐高潮一区二区 | 日本肉体xxxx裸交 | 久久99精品久久久久久 | 人妻与老人中文字幕 | 牛和人交xxxx欧美 | 99久久人妻精品免费二区 | 欧美 丝袜 自拍 制服 另类 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 青青草原综合久久大伊人精品 | 久久99精品国产麻豆蜜芽 | 国产一区二区三区影院 | 亚洲精品久久久久久久久久久 | 国产精品99久久精品爆乳 | 免费观看激色视频网站 | 中文字幕+乱码+中文字幕一区 | 亚洲乱码中文字幕在线 | 在线欧美精品一区二区三区 | 日韩精品乱码av一区二区 | 日韩av无码中文无码电影 | 亚洲色成人中文字幕网站 | 国内精品人妻无码久久久影院 | 超碰97人人射妻 | 又粗又大又硬毛片免费看 | 国产激情无码一区二区 | 色婷婷久久一区二区三区麻豆 | 男人扒开女人内裤强吻桶进去 | 福利一区二区三区视频在线观看 | 中文字幕无码人妻少妇免费 | 亚洲精品一区三区三区在线观看 | 国产精品自产拍在线观看 | 成人免费视频一区二区 | 亚洲欧洲日本综合aⅴ在线 | 四十如虎的丰满熟妇啪啪 | 国产精品第一区揄拍无码 | 久久久久国色av免费观看性色 | 精品国产成人一区二区三区 | 国产乱人无码伦av在线a | 老司机亚洲精品影院 | 鲁一鲁av2019在线 | 亚洲中文字幕乱码av波多ji | 中文字幕乱码中文乱码51精品 | 大肉大捧一进一出好爽视频 | 国产又粗又硬又大爽黄老大爷视 | 欧美国产日韩久久mv | 97色伦图片97综合影院 | 国产免费久久精品国产传媒 | 亚洲精品成a人在线观看 | 午夜时刻免费入口 | 麻花豆传媒剧国产免费mv在线 | 日本精品少妇一区二区三区 | 人人妻人人澡人人爽欧美精品 | 国产高清av在线播放 | 在线播放无码字幕亚洲 | 亚洲小说春色综合另类 | 国产av无码专区亚洲awww | 亚洲精品一区二区三区大桥未久 | 美女张开腿让人桶 | 呦交小u女精品视频 | 国产色xx群视频射精 | 高清不卡一区二区三区 | 亚洲高清偷拍一区二区三区 | 九一九色国产 | 亚洲最大成人网站 | 国产亚洲美女精品久久久2020 | 亚洲一区二区三区国产精华液 | 熟妇人妻无乱码中文字幕 | 亚洲精品国偷拍自产在线观看蜜桃 | 妺妺窝人体色www婷婷 | 国产精品二区一区二区aⅴ污介绍 | 久久综合色之久久综合 | 久久精品无码一区二区三区 | av人摸人人人澡人人超碰下载 | √天堂中文官网8在线 | 狂野欧美性猛交免费视频 | 亚洲成在人网站无码天堂 | 国产小呦泬泬99精品 | 亚洲欧美色中文字幕在线 | 激情国产av做激情国产爱 | 亚洲欧洲无卡二区视頻 | 亚洲成av人综合在线观看 | 国产精品毛多多水多 | 鲁鲁鲁爽爽爽在线视频观看 | 大色综合色综合网站 | 精品人妻中文字幕有码在线 | 亚洲 日韩 欧美 成人 在线观看 | 波多野结衣乳巨码无在线观看 | 97久久超碰中文字幕 | 中文字幕人成乱码熟女app | 人人妻在人人 | 国产精品人人爽人人做我的可爱 | 亚洲伊人久久精品影院 | 蜜臀aⅴ国产精品久久久国产老师 | 精品国产乱码久久久久乱码 | 亚洲精品中文字幕久久久久 | 国产精品福利视频导航 | 日韩欧美群交p片內射中文 | 亚洲精品久久久久中文第一幕 | 精品国产麻豆免费人成网站 | 精品国产一区二区三区av 性色 | 精品少妇爆乳无码av无码专区 | 无码人妻丰满熟妇区毛片18 | 国产在线精品一区二区高清不卡 | 午夜成人1000部免费视频 | 无码人妻精品一区二区三区下载 | 中文字幕乱码中文乱码51精品 | 国内揄拍国内精品少妇国语 | 精品人人妻人人澡人人爽人人 | 欧美阿v高清资源不卡在线播放 | 一个人看的www免费视频在线观看 | 牛和人交xxxx欧美 | 欧美人与动性行为视频 | 窝窝午夜理论片影院 | 国产午夜亚洲精品不卡下载 | 又湿又紧又大又爽a视频国产 | 人人妻人人澡人人爽精品欧美 | 大肉大捧一进一出视频出来呀 | 乱码午夜-极国产极内射 | 国产成人精品三级麻豆 | 丰满人妻一区二区三区免费视频 | 妺妺窝人体色www在线小说 | 精品国产av色一区二区深夜久久 | 欧美日韩人成综合在线播放 | 日本va欧美va欧美va精品 | 国产成人无码一二三区视频 | 日欧一片内射va在线影院 | 欧美黑人巨大xxxxx | 理论片87福利理论电影 | 亚洲日韩精品欧美一区二区 | 国产精品无码永久免费888 | 青青青爽视频在线观看 | 日本在线高清不卡免费播放 | 99精品无人区乱码1区2区3区 | 日韩人妻无码中文字幕视频 | 精品亚洲韩国一区二区三区 | 国产激情一区二区三区 | 1000部啪啪未满十八勿入下载 | 久久精品国产99精品亚洲 | 久久久无码中文字幕久... | 一个人看的www免费视频在线观看 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 日韩人妻无码一区二区三区久久99 | 欧美性生交xxxxx久久久 | 激情内射日本一区二区三区 | 久久久av男人的天堂 | 国产熟女一区二区三区四区五区 | 久久久久国色av免费观看性色 | 亚洲欧美中文字幕5发布 | 久久99精品久久久久婷婷 | 国产亚洲欧美日韩亚洲中文色 | 国产一区二区不卡老阿姨 | 欧美性猛交xxxx富婆 | 久久无码专区国产精品s | 亚洲精品久久久久久一区二区 | 国产精品亚洲а∨无码播放麻豆 | 亚洲中文字幕久久无码 | 日本熟妇乱子伦xxxx | 久久久久久国产精品无码下载 | 欧美 亚洲 国产 另类 | 国产人妻久久精品二区三区老狼 | 精品国产av色一区二区深夜久久 | 特大黑人娇小亚洲女 | 精品久久久久久人妻无码中文字幕 | 波多野42部无码喷潮在线 | 亚洲成a人片在线观看无码3d | 丝袜人妻一区二区三区 | 亚洲精品久久久久久久久久久 | 1000部夫妻午夜免费 | 亚洲va欧美va天堂v国产综合 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产成人无码午夜视频在线观看 | 国产99久久精品一区二区 | 蜜臀av无码人妻精品 | 久久国语露脸国产精品电影 | 久久精品中文字幕一区 | 天堂а√在线地址中文在线 | 日韩人妻无码中文字幕视频 | 中文字幕无码人妻少妇免费 | 综合激情五月综合激情五月激情1 | 日日摸天天摸爽爽狠狠97 | 捆绑白丝粉色jk震动捧喷白浆 | 中文亚洲成a人片在线观看 | 亚洲欧美日韩综合久久久 | 黑人粗大猛烈进出高潮视频 | 999久久久国产精品消防器材 | 欧美日韩一区二区三区自拍 | 午夜时刻免费入口 | 中文字幕人成乱码熟女app | 精品亚洲韩国一区二区三区 | 水蜜桃亚洲一二三四在线 | 久久国产自偷自偷免费一区调 | 亚洲精品美女久久久久久久 | 亚洲欧洲中文日韩av乱码 | 99精品视频在线观看免费 | 色一情一乱一伦一视频免费看 | 亚洲欧美国产精品专区久久 | 永久黄网站色视频免费直播 | 久久99精品久久久久婷婷 | 久久人人爽人人人人片 | 亚洲中文无码av永久不收费 | 亚洲国产一区二区三区在线观看 | 国产亚洲日韩欧美另类第八页 | 美女毛片一区二区三区四区 | 亚洲欧美中文字幕5发布 | 午夜福利一区二区三区在线观看 | 日本一区二区更新不卡 | 国色天香社区在线视频 | 欧美人妻一区二区三区 | 中文字幕乱码中文乱码51精品 | 亚洲中文字幕成人无码 | 亚洲中文字幕成人无码 | 性欧美videos高清精品 | 激情爆乳一区二区三区 | 亚洲精品鲁一鲁一区二区三区 | 蜜臀av无码人妻精品 | 女人被爽到呻吟gif动态图视看 | 久久综合九色综合欧美狠狠 | а√资源新版在线天堂 | 一本精品99久久精品77 | 色五月五月丁香亚洲综合网 | 国产午夜亚洲精品不卡 | 精品亚洲成av人在线观看 | 好男人www社区 | 国产免费观看黄av片 | 性欧美videos高清精品 | 99er热精品视频 | 欧美 日韩 人妻 高清 中文 | 色欲人妻aaaaaaa无码 | 东京无码熟妇人妻av在线网址 | 久久天天躁夜夜躁狠狠 | 少妇性俱乐部纵欲狂欢电影 | 亚洲色欲久久久综合网东京热 | 亚洲日本va中文字幕 | 久久www免费人成人片 | 色婷婷综合中文久久一本 | 久久 国产 尿 小便 嘘嘘 | 国产成人无码a区在线观看视频app | 精品厕所偷拍各类美女tp嘘嘘 | 国产三级精品三级男人的天堂 | 99视频精品全部免费免费观看 | 未满小14洗澡无码视频网站 | 日日摸日日碰夜夜爽av | 无码av最新清无码专区吞精 | 国产成人无码a区在线观看视频app | √天堂中文官网8在线 | 日韩视频 中文字幕 视频一区 | 亚洲无人区一区二区三区 | 四虎永久在线精品免费网址 | 国产精品爱久久久久久久 | 亚洲色偷偷偷综合网 | 国产av无码专区亚洲a∨毛片 | 精品国产aⅴ无码一区二区 | 蜜桃av抽搐高潮一区二区 | 欧美人与禽zoz0性伦交 | 国内丰满熟女出轨videos | 国产熟妇另类久久久久 | 久久天天躁夜夜躁狠狠 | 又湿又紧又大又爽a视频国产 | 国产综合色产在线精品 | 久久aⅴ免费观看 | 久久久久久九九精品久 | 国产成人无码av片在线观看不卡 | 亚洲国产精品无码一区二区三区 | 装睡被陌生人摸出水好爽 | 中文字幕无线码免费人妻 | 国产精品高潮呻吟av久久4虎 | 国产午夜无码精品免费看 | www国产亚洲精品久久久日本 | 精品久久久无码人妻字幂 | 亚洲成色www久久网站 | 亚洲色无码一区二区三区 | 精品熟女少妇av免费观看 | 5858s亚洲色大成网站www | 中文精品久久久久人妻不卡 | 熟女少妇在线视频播放 | 成人亚洲精品久久久久软件 | 色一情一乱一伦 | 成人试看120秒体验区 | 波多野结衣 黑人 | 爽爽影院免费观看 | 国产精品久久久av久久久 | 精品日本一区二区三区在线观看 | 成在人线av无码免费 | 精品人妻人人做人人爽夜夜爽 | 88国产精品欧美一区二区三区 | 亚洲人成网站免费播放 | 熟妇女人妻丰满少妇中文字幕 | 国产精品手机免费 | 99久久人妻精品免费二区 | 又大又紧又粉嫩18p少妇 | 国产无遮挡又黄又爽免费视频 | 成人亚洲精品久久久久软件 | 欧美日韩视频无码一区二区三 | 久久久中文字幕日本无吗 | 77777熟女视频在线观看 а天堂中文在线官网 | 国产9 9在线 | 中文 | 亚洲精品久久久久avwww潮水 | 国产精品理论片在线观看 | 人妻天天爽夜夜爽一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 无码人妻av免费一区二区三区 | 欧美日韩综合一区二区三区 | 中文无码精品a∨在线观看不卡 | 激情爆乳一区二区三区 | 超碰97人人射妻 | 99久久人妻精品免费二区 | 中文字幕人成乱码熟女app | 欧美成人午夜精品久久久 | 国产极品视觉盛宴 | 日韩人妻无码中文字幕视频 | 无码国模国产在线观看 | 97久久精品无码一区二区 | 欧美日韩一区二区免费视频 | 久久久精品欧美一区二区免费 | 欧美阿v高清资源不卡在线播放 | 国产精品久久久久9999小说 | 成熟人妻av无码专区 | 国产av人人夜夜澡人人爽麻豆 | 色一情一乱一伦一区二区三欧美 | 亚洲综合色区中文字幕 | 久久午夜夜伦鲁鲁片无码免费 | 中文无码成人免费视频在线观看 | 国产成人无码区免费内射一片色欲 | 国产香蕉尹人视频在线 | 国产另类ts人妖一区二区 | 奇米影视888欧美在线观看 | 无码av岛国片在线播放 | 日本饥渴人妻欲求不满 | 天堂无码人妻精品一区二区三区 | 7777奇米四色成人眼影 | 日本一区二区更新不卡 | 亚洲一区二区三区无码久久 | 偷窥日本少妇撒尿chinese | 2019nv天堂香蕉在线观看 | 亚洲熟妇自偷自拍另类 | 国产熟妇另类久久久久 | 亚洲成av人影院在线观看 | 国产激情无码一区二区 | 成人欧美一区二区三区黑人免费 | 宝宝好涨水快流出来免费视频 | 免费国产黄网站在线观看 | 午夜理论片yy44880影院 | 嫩b人妻精品一区二区三区 | 国产手机在线αⅴ片无码观看 | 久久久久se色偷偷亚洲精品av | 永久免费观看国产裸体美女 | 国产精品久久久 | 亚洲欧美中文字幕5发布 | 国产真实乱对白精彩久久 | 亚洲男人av香蕉爽爽爽爽 | 成熟妇人a片免费看网站 | 人妻尝试又大又粗久久 | 兔费看少妇性l交大片免费 | а√天堂www在线天堂小说 | 沈阳熟女露脸对白视频 | 鲁鲁鲁爽爽爽在线视频观看 | 亚洲熟妇色xxxxx欧美老妇 | 牲欲强的熟妇农村老妇女 | 4hu四虎永久在线观看 | 国产麻豆精品精东影业av网站 | 欧美猛少妇色xxxxx | 免费播放一区二区三区 | 国产精品无码一区二区桃花视频 | 亚洲精品中文字幕久久久久 | 色综合久久网 | 人人妻人人澡人人爽欧美一区九九 | 人人爽人人爽人人片av亚洲 | 亚洲精品国产品国语在线观看 | 国产精品自产拍在线观看 | 午夜福利一区二区三区在线观看 | 日本爽爽爽爽爽爽在线观看免 | 国产综合久久久久鬼色 | 欧美猛少妇色xxxxx | 激情国产av做激情国产爱 | 精品国精品国产自在久国产87 | 日本大香伊一区二区三区 | 欧美乱妇无乱码大黄a片 | 成年女人永久免费看片 | 精品人妻人人做人人爽夜夜爽 | 无码一区二区三区在线 | 任你躁在线精品免费 | 亚洲 日韩 欧美 成人 在线观看 | 亚洲中文字幕在线无码一区二区 | 欧美野外疯狂做受xxxx高潮 | 亚洲精品一区二区三区在线观看 | 国产亚av手机在线观看 | 人人妻人人澡人人爽人人精品 | 亚洲综合色区中文字幕 | 国产亚洲精品久久久久久国模美 | 国产精品久久久久久无码 | 纯爱无遮挡h肉动漫在线播放 | 99久久精品午夜一区二区 | 精品水蜜桃久久久久久久 | 亚洲乱亚洲乱妇50p | 国产又爽又黄又刺激的视频 | 欧美性色19p | 国産精品久久久久久久 | √天堂中文官网8在线 | 亚洲а∨天堂久久精品2021 | 又湿又紧又大又爽a视频国产 | 久久zyz资源站无码中文动漫 | 亚洲国精产品一二二线 | 国产69精品久久久久app下载 | 暴力强奷在线播放无码 | 午夜无码人妻av大片色欲 | 三上悠亚人妻中文字幕在线 | aⅴ亚洲 日韩 色 图网站 播放 | 国产又爽又猛又粗的视频a片 | 亚洲国产精品成人久久蜜臀 | 又大又硬又黄的免费视频 | 国产精品亚洲а∨无码播放麻豆 | 精品一区二区三区无码免费视频 | 久久综合九色综合欧美狠狠 | 亚洲精品国产精品乱码视色 | 人妻aⅴ无码一区二区三区 | 樱花草在线播放免费中文 | aⅴ亚洲 日韩 色 图网站 播放 | 欧美丰满老熟妇xxxxx性 | 亚洲色欲色欲天天天www | 午夜精品一区二区三区的区别 | 亚洲熟妇色xxxxx欧美老妇 | 无码人妻av免费一区二区三区 | 色一情一乱一伦一视频免费看 | 精品亚洲韩国一区二区三区 | 久久五月精品中文字幕 | 无套内谢老熟女 | 国产一区二区三区日韩精品 | 玩弄中年熟妇正在播放 | 清纯唯美经典一区二区 | 亚洲精品午夜国产va久久成人 | 成 人 网 站国产免费观看 | 成人欧美一区二区三区 | 成人免费视频一区二区 | 久久国产自偷自偷免费一区调 | 免费视频欧美无人区码 | 亚洲综合色区中文字幕 | 中文字幕精品av一区二区五区 | 国产特级毛片aaaaaaa高清 | 少妇无码av无码专区在线观看 | 99视频精品全部免费免费观看 | 亚洲毛片av日韩av无码 | 免费无码一区二区三区蜜桃大 | 国内精品一区二区三区不卡 | 亚洲日本va中文字幕 | 欧美熟妇另类久久久久久多毛 | 一区二区三区乱码在线 | 欧洲 | 丰满少妇熟乱xxxxx视频 | 高清无码午夜福利视频 | 最新版天堂资源中文官网 | 精品人妻人人做人人爽 | 成人无码精品1区2区3区免费看 | 国产在热线精品视频 | 东京热男人av天堂 | 日韩精品一区二区av在线 | 国产亚洲欧美日韩亚洲中文色 | 丰满岳乱妇在线观看中字无码 | 中文字幕乱妇无码av在线 | 18禁黄网站男男禁片免费观看 | 97久久精品无码一区二区 | 国产激情综合五月久久 | 日产国产精品亚洲系列 | 久久人妻内射无码一区三区 | 亚洲日本va午夜在线电影 | 日本精品久久久久中文字幕 | av在线亚洲欧洲日产一区二区 | 国产福利视频一区二区 | 国产精品99爱免费视频 | 大肉大捧一进一出视频出来呀 | 色综合久久久无码中文字幕 | 亚洲日韩乱码中文无码蜜桃臀网站 | 天堂а√在线中文在线 | 久久国产精品_国产精品 | 天天爽夜夜爽夜夜爽 | 亚洲の无码国产の无码步美 | 大地资源网第二页免费观看 | 中文字幕av日韩精品一区二区 | 曰本女人与公拘交酡免费视频 | 男人的天堂2018无码 | 免费观看的无遮挡av | 久久国内精品自在自线 | 国产精品无码mv在线观看 | 少妇被黑人到高潮喷出白浆 | 亚洲日韩精品欧美一区二区 | 2020最新国产自产精品 | 亚洲啪av永久无码精品放毛片 | 动漫av一区二区在线观看 | 成人aaa片一区国产精品 | 日韩视频 中文字幕 视频一区 | 国产又粗又硬又大爽黄老大爷视 | 久久国产自偷自偷免费一区调 | 奇米影视7777久久精品 | 欧美日韩亚洲国产精品 | 日本精品人妻无码77777 天堂一区人妻无码 | 日韩精品无码免费一区二区三区 | 亚洲娇小与黑人巨大交 | 99麻豆久久久国产精品免费 | 精品欧洲av无码一区二区三区 | 丰满诱人的人妻3 | 一本色道久久综合狠狠躁 | 2019nv天堂香蕉在线观看 | 久久精品国产一区二区三区 | 日本熟妇人妻xxxxx人hd | 国产suv精品一区二区五 | 国产精品久久久久久久9999 | 中文字幕乱码人妻无码久久 | 婷婷色婷婷开心五月四房播播 | √8天堂资源地址中文在线 | 黑森林福利视频导航 | 老司机亚洲精品影院 | 日本精品少妇一区二区三区 | 国产福利视频一区二区 | 免费人成在线观看网站 | 亚洲色欲色欲欲www在线 | 日韩精品无码一本二本三本色 | 东北女人啪啪对白 | 老熟女重囗味hdxx69 | 人人澡人人透人人爽 | 久久99精品国产麻豆蜜芽 | 欧美性生交活xxxxxdddd | 成人精品视频一区二区 | 98国产精品综合一区二区三区 | 成人精品一区二区三区中文字幕 | 亚洲 激情 小说 另类 欧美 | 亚洲 另类 在线 欧美 制服 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久精品中文字幕一区 | 欧美国产日产一区二区 | 久久熟妇人妻午夜寂寞影院 | 偷窥村妇洗澡毛毛多 | 国产亚洲视频中文字幕97精品 | 亚洲综合在线一区二区三区 | 亚洲人成影院在线无码按摩店 | 精品一区二区不卡无码av | 黑人巨大精品欧美黑寡妇 | 国产又爽又猛又粗的视频a片 | 亚洲自偷自拍另类第1页 | 国产成人无码一二三区视频 | 国产精品久久久久9999小说 | 国产香蕉尹人综合在线观看 | 大肉大捧一进一出视频出来呀 | 欧美怡红院免费全部视频 | 亚洲欧美精品aaaaaa片 | 亚洲精品一区二区三区大桥未久 | 日本精品少妇一区二区三区 | 亚洲中文字幕在线观看 | 亚洲精品中文字幕久久久久 | 国产精品对白交换视频 | 四十如虎的丰满熟妇啪啪 | 久久久久99精品成人片 | 久久伊人色av天堂九九小黄鸭 | 亚洲熟妇色xxxxx欧美老妇 | 日韩人妻少妇一区二区三区 | 色一情一乱一伦 | 4hu四虎永久在线观看 | 久久99精品久久久久久 | 亚洲熟妇色xxxxx亚洲 | 激情五月综合色婷婷一区二区 | 亚洲成熟女人毛毛耸耸多 | 小泽玛莉亚一区二区视频在线 | 国产亚洲精品久久久久久久久动漫 | 在线精品亚洲一区二区 | 亚洲精品一区国产 | 色妞www精品免费视频 | 久热国产vs视频在线观看 | 帮老师解开蕾丝奶罩吸乳网站 | 国产亚洲精品久久久闺蜜 | 熟妇人妻激情偷爽文 | 美女黄网站人色视频免费国产 | 精品无人区无码乱码毛片国产 | 欧美野外疯狂做受xxxx高潮 | 97精品人妻一区二区三区香蕉 | 色一情一乱一伦一区二区三欧美 | 成熟女人特级毛片www免费 | 国产成人无码av在线影院 | 久久成人a毛片免费观看网站 | 国产精品无码成人午夜电影 | 国产精品爱久久久久久久 | 性欧美大战久久久久久久 | 国产成人一区二区三区别 | 日韩无码专区 | 亚洲s码欧洲m码国产av | 77777熟女视频在线观看 а天堂中文在线官网 | √8天堂资源地址中文在线 | 国产明星裸体无码xxxx视频 | 国产午夜视频在线观看 | 人妻插b视频一区二区三区 | 老熟妇乱子伦牲交视频 | 国产亚洲精品久久久久久久 | 俺去俺来也www色官网 | 久久亚洲精品中文字幕无男同 | 国产亚洲精品久久久久久大师 | 99精品无人区乱码1区2区3区 | 在线精品国产一区二区三区 | 四虎国产精品免费久久 | 免费无码一区二区三区蜜桃大 | 在线看片无码永久免费视频 | 久久aⅴ免费观看 | 国产精品无码mv在线观看 | 久久国产自偷自偷免费一区调 | 激情五月综合色婷婷一区二区 | 亚洲码国产精品高潮在线 | 亚洲色在线无码国产精品不卡 | 日产国产精品亚洲系列 | 亚洲成熟女人毛毛耸耸多 | 色窝窝无码一区二区三区色欲 | 黑人粗大猛烈进出高潮视频 | 一个人免费观看的www视频 | 欧美第一黄网免费网站 | 奇米影视7777久久精品 | 国模大胆一区二区三区 | 久久99久久99精品中文字幕 | 18禁黄网站男男禁片免费观看 | 99精品国产综合久久久久五月天 | 日本精品人妻无码77777 天堂一区人妻无码 | 女人被男人爽到呻吟的视频 | 色婷婷av一区二区三区之红樱桃 | 性开放的女人aaa片 | 国产成人无码av在线影院 | a片在线免费观看 | 久激情内射婷内射蜜桃人妖 | 人人爽人人爽人人片av亚洲 | 亚洲经典千人经典日产 | 3d动漫精品啪啪一区二区中 | 国产欧美精品一区二区三区 | 久精品国产欧美亚洲色aⅴ大片 | 搡女人真爽免费视频大全 | 国产精品久久久久久无码 | 麻豆精品国产精华精华液好用吗 | 亚洲第一无码av无码专区 | 一本久久a久久精品亚洲 | 一本色道久久综合狠狠躁 | 国产精品多人p群无码 | 亚洲毛片av日韩av无码 | 无码人妻久久一区二区三区不卡 | 婷婷色婷婷开心五月四房播播 | √天堂资源地址中文在线 | 欧美日韩久久久精品a片 | 亚洲精品一区二区三区在线观看 | 精品无码国产一区二区三区av | 丁香啪啪综合成人亚洲 | 国产激情无码一区二区app | 亚洲国产高清在线观看视频 | 日本一本二本三区免费 | 99久久婷婷国产综合精品青草免费 | 国产乱人无码伦av在线a | 日本护士毛茸茸高潮 | 久久综合九色综合欧美狠狠 | 日日摸夜夜摸狠狠摸婷婷 | 色老头在线一区二区三区 | 丰满少妇人妻久久久久久 | 成人无码影片精品久久久 | 色综合久久网 | 又湿又紧又大又爽a视频国产 | 国产精品久久久久7777 | 亚洲精品一区二区三区婷婷月 | 成人欧美一区二区三区黑人 | 老头边吃奶边弄进去呻吟 | 国产极品美女高潮无套在线观看 | 捆绑白丝粉色jk震动捧喷白浆 | 精品无码国产一区二区三区av | 中文字幕人妻无码一区二区三区 | 4hu四虎永久在线观看 | 国产精品久久精品三级 | a片免费视频在线观看 | 人妻少妇精品无码专区二区 | 激情内射日本一区二区三区 | 久久久精品欧美一区二区免费 | 老头边吃奶边弄进去呻吟 | 久久久精品欧美一区二区免费 | 麻豆精品国产精华精华液好用吗 | 在线精品亚洲一区二区 | 久久国产精品精品国产色婷婷 | 狂野欧美性猛xxxx乱大交 | 少妇无码av无码专区在线观看 | 亚洲精品久久久久avwww潮水 | 无码人妻丰满熟妇区毛片18 | 国产亚洲精品精品国产亚洲综合 | 人妻互换免费中文字幕 | 日韩视频 中文字幕 视频一区 | 性生交片免费无码看人 | 国产亚洲精品久久久久久国模美 | 自拍偷自拍亚洲精品被多人伦好爽 | 久久99国产综合精品 | 精品偷拍一区二区三区在线看 | 97色伦图片97综合影院 | 中文字幕无线码 | 中文字幕乱码亚洲无线三区 | 久久精品国产一区二区三区 | 人妻夜夜爽天天爽三区 | 精品国精品国产自在久国产87 | 久久综合色之久久综合 | 免费无码午夜福利片69 | 国产免费久久精品国产传媒 | 久久国产精品_国产精品 | 少妇被黑人到高潮喷出白浆 | 两性色午夜免费视频 | 国产成人一区二区三区别 | 亚洲精品一区二区三区四区五区 | 久久精品99久久香蕉国产色戒 | 成人av无码一区二区三区 | 永久免费观看美女裸体的网站 | 午夜精品一区二区三区的区别 | 成人亚洲精品久久久久 | 福利一区二区三区视频在线观看 | 天堂无码人妻精品一区二区三区 | 人人爽人人澡人人高潮 | 日韩精品a片一区二区三区妖精 | 捆绑白丝粉色jk震动捧喷白浆 | 日本熟妇乱子伦xxxx | 欧美人与禽猛交狂配 | 男女作爱免费网站 | 成人片黄网站色大片免费观看 | 日本一区二区三区免费播放 | 国产高清不卡无码视频 | 在线а√天堂中文官网 | 亚洲熟妇色xxxxx欧美老妇y | 性做久久久久久久免费看 | 激情爆乳一区二区三区 | 国产精品igao视频网 | 国产欧美亚洲精品a | 久久久www成人免费毛片 | 国产精品办公室沙发 | 日日夜夜撸啊撸 | 老头边吃奶边弄进去呻吟 | 国产区女主播在线观看 | 野外少妇愉情中文字幕 | 成熟妇人a片免费看网站 | 亚洲国产精华液网站w | 午夜精品久久久久久久 | 377p欧洲日本亚洲大胆 | 国产精品毛片一区二区 | 国产真人无遮挡作爱免费视频 | 天天做天天爱天天爽综合网 | 精品成在人线av无码免费看 | 亚洲日韩av片在线观看 | 国产高清av在线播放 | 97精品国产97久久久久久免费 | 精品国产成人一区二区三区 | 99久久精品国产一区二区蜜芽 | 亚洲国产精品美女久久久久 | 18黄暴禁片在线观看 | 国产 精品 自在自线 | 欧美日本免费一区二区三区 | 东北女人啪啪对白 | 国产人妻人伦精品 | 人妻人人添人妻人人爱 | 成熟妇人a片免费看网站 | 精品欧美一区二区三区久久久 | 在线a亚洲视频播放在线观看 | 久久精品中文闷骚内射 | 久久精品中文字幕一区 | 在线播放免费人成毛片乱码 | 国产在线精品一区二区三区直播 | 亚洲国产精华液网站w | 无码午夜成人1000部免费视频 | 国产莉萝无码av在线播放 | 国产乱人伦av在线无码 | 国产激情无码一区二区app | 午夜丰满少妇性开放视频 | 高潮毛片无遮挡高清免费视频 | 熟女少妇人妻中文字幕 | 亚洲精品国产第一综合99久久 | 日本大香伊一区二区三区 | 久久久久99精品成人片 | 国产精品久久久一区二区三区 | 鲁鲁鲁爽爽爽在线视频观看 | 国产av无码专区亚洲a∨毛片 | 人妻中文无码久热丝袜 | 国产 精品 自在自线 | 久久精品人人做人人综合试看 | 波多野结衣av在线观看 | 18无码粉嫩小泬无套在线观看 | 成人精品天堂一区二区三区 | 日韩av无码中文无码电影 | 桃花色综合影院 | 国产亚洲精品久久久久久久 | 亚洲热妇无码av在线播放 | 大地资源网第二页免费观看 | 成人无码影片精品久久久 | 中文字幕无码av波多野吉衣 | 久久精品丝袜高跟鞋 | 色一情一乱一伦一视频免费看 | 人妻与老人中文字幕 | 国产av无码专区亚洲awww | 狠狠色噜噜狠狠狠狠7777米奇 | 国产又爽又黄又刺激的视频 | 国产高清av在线播放 | 天天躁夜夜躁狠狠是什么心态 | 亚洲娇小与黑人巨大交 | 中文字幕乱码人妻二区三区 | 沈阳熟女露脸对白视频 | 4hu四虎永久在线观看 | 精品人人妻人人澡人人爽人人 | 性欧美牲交xxxxx视频 | 青青青爽视频在线观看 | 青草视频在线播放 | 精品久久久久久人妻无码中文字幕 | 国产乱人偷精品人妻a片 | 免费看男女做好爽好硬视频 | 国产精品久久福利网站 | 久久久久亚洲精品男人的天堂 | 乱中年女人伦av三区 | 国产真人无遮挡作爱免费视频 | 青青草原综合久久大伊人精品 | 亚洲色偷偷男人的天堂 | 在线精品国产一区二区三区 | 欧美成人午夜精品久久久 | 国产精品免费大片 | 无码人中文字幕 | 精品人妻中文字幕有码在线 | 最近的中文字幕在线看视频 | 国产亚洲精品久久久闺蜜 | 少妇性俱乐部纵欲狂欢电影 | 欧美激情一区二区三区成人 | 丁香花在线影院观看在线播放 | 国产一区二区三区四区五区加勒比 | 成人无码影片精品久久久 | 亚洲成av人综合在线观看 | 亚洲中文字幕无码中文字在线 | 日韩人妻少妇一区二区三区 | 国产精品自产拍在线观看 | 呦交小u女精品视频 | 99麻豆久久久国产精品免费 | 97精品人妻一区二区三区香蕉 | 精品久久久久久亚洲精品 | 欧美日韩视频无码一区二区三 | 午夜精品久久久久久久久 | 亚洲综合伊人久久大杳蕉 | 啦啦啦www在线观看免费视频 | 爽爽影院免费观看 | 亚洲精品一区国产 | 成人无码影片精品久久久 | 国产人妻精品一区二区三区不卡 | 超碰97人人做人人爱少妇 | 欧美黑人乱大交 | 强辱丰满人妻hd中文字幕 | 色五月五月丁香亚洲综合网 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产精品亚洲а∨无码播放麻豆 | 国产综合色产在线精品 | 999久久久国产精品消防器材 | 日本精品高清一区二区 | 99久久精品午夜一区二区 | 丰满妇女强制高潮18xxxx | 黑人大群体交免费视频 | 久久久久99精品国产片 | 日本xxxx色视频在线观看免费 | 国产精品亚洲综合色区韩国 | 无码乱肉视频免费大全合集 | 蜜臀av无码人妻精品 | 少妇人妻偷人精品无码视频 | 日本一卡二卡不卡视频查询 | 丰满少妇高潮惨叫视频 | 欧美日本精品一区二区三区 | 亚洲精品国产精品乱码视色 | 亚洲综合久久一区二区 | 激情亚洲一区国产精品 | 窝窝午夜理论片影院 | 日本一区二区三区免费高清 | 精品少妇爆乳无码av无码专区 | 色婷婷综合激情综在线播放 | 性史性农村dvd毛片 | 亚洲国产av精品一区二区蜜芽 | 在线成人www免费观看视频 | 久久亚洲a片com人成 | 任你躁在线精品免费 | 国产精品亚洲一区二区三区喷水 | 水蜜桃亚洲一二三四在线 | 99久久99久久免费精品蜜桃 | 九月婷婷人人澡人人添人人爽 | 国产凸凹视频一区二区 | 中文字幕亚洲情99在线 | 免费无码肉片在线观看 | 最新国产乱人伦偷精品免费网站 | ass日本丰满熟妇pics | 中文字幕av伊人av无码av | 婷婷色婷婷开心五月四房播播 | 妺妺窝人体色www在线小说 | 久久久久国色av免费观看性色 | 国产精品第一国产精品 | 国产精品香蕉在线观看 | 999久久久国产精品消防器材 | 国产精品久久久久久无码 | 九九热爱视频精品 | 国产亚洲欧美日韩亚洲中文色 | 日本熟妇人妻xxxxx人hd | 国产成人精品视频ⅴa片软件竹菊 | 熟女少妇人妻中文字幕 | 亚洲中文字幕乱码av波多ji | 成人性做爰aaa片免费看不忠 | 无码国产激情在线观看 | 51国偷自产一区二区三区 | 国产一区二区三区四区五区加勒比 | 国产婷婷色一区二区三区在线 | 亚洲一区二区三区四区 | 国产成人无码a区在线观看视频app | 东京热男人av天堂 | 夜精品a片一区二区三区无码白浆 | 中文字幕无码乱人伦 | 免费网站看v片在线18禁无码 | 欧洲vodafone精品性 | 中文字幕久久久久人妻 | 乌克兰少妇性做爰 | 无码av岛国片在线播放 | 国产亚洲精品久久久久久国模美 | 成人亚洲精品久久久久 | 天海翼激烈高潮到腰振不止 | 无遮挡国产高潮视频免费观看 | 领导边摸边吃奶边做爽在线观看 | 亚洲一区二区观看播放 | 大地资源网第二页免费观看 | 精品国精品国产自在久国产87 | 精品国产青草久久久久福利 | www成人国产高清内射 | 亚洲中文无码av永久不收费 | 亚洲精品国产精品乱码不卡 | 无码吃奶揉捏奶头高潮视频 | 国产乱人偷精品人妻a片 | 精品无码一区二区三区爱欲 | 欧美日本精品一区二区三区 | 樱花草在线社区www | 欧美 亚洲 国产 另类 | 亚洲人成网站在线播放942 | 精品无码国产自产拍在线观看蜜 | 国产两女互慰高潮视频在线观看 | 国产极品美女高潮无套在线观看 | 少妇的肉体aa片免费 | 国产精品亚洲综合色区韩国 | 在线精品国产一区二区三区 | 玩弄少妇高潮ⅹxxxyw | 综合激情五月综合激情五月激情1 | 伊人久久大香线蕉av一区二区 | 久久久无码中文字幕久... | 精品国产青草久久久久福利 | 国产成人精品必看 | 亚洲中文无码av永久不收费 | 亚洲大尺度无码无码专区 | 久久久久久久久888 | 国产精品无套呻吟在线 | 国产亚洲精品久久久久久国模美 | 精品 日韩 国产 欧美 视频 | 最近的中文字幕在线看视频 | 九九综合va免费看 | 色婷婷久久一区二区三区麻豆 | 人妻夜夜爽天天爽三区 | 67194成是人免费无码 | 欧美成人高清在线播放 | 亚洲熟熟妇xxxx | 久久精品中文字幕一区 | 亚洲经典千人经典日产 | 国产香蕉尹人综合在线观看 | 国产高清av在线播放 | 自拍偷自拍亚洲精品被多人伦好爽 | 六月丁香婷婷色狠狠久久 | 国产美女精品一区二区三区 | 高潮毛片无遮挡高清免费视频 | 国产色视频一区二区三区 | 中文字幕日韩精品一区二区三区 | 六十路熟妇乱子伦 | 欧美黑人乱大交 | 国产精品人人爽人人做我的可爱 | 国产97人人超碰caoprom | 国产亲子乱弄免费视频 | 亲嘴扒胸摸屁股激烈网站 | 99久久亚洲精品无码毛片 | 国产成人av免费观看 | 亚洲人亚洲人成电影网站色 | 无码国产色欲xxxxx视频 | 四虎国产精品一区二区 | 久久久www成人免费毛片 | 日产国产精品亚洲系列 | 亚洲色大成网站www国产 | 亚洲中文字幕成人无码 | 男女下面进入的视频免费午夜 | 亚洲日本va午夜在线电影 | 久久久久99精品成人片 | 久久国内精品自在自线 | 女人被男人躁得好爽免费视频 | 搡女人真爽免费视频大全 | 亚洲综合色区中文字幕 | 丰腴饱满的极品熟妇 | 内射老妇bbwx0c0ck | 日本大乳高潮视频在线观看 | 日韩少妇白浆无码系列 | 精品厕所偷拍各类美女tp嘘嘘 | 亚洲成色在线综合网站 | 麻豆精品国产精华精华液好用吗 | 亚洲欧洲中文日韩av乱码 | 乱码av麻豆丝袜熟女系列 | 国内精品一区二区三区不卡 | 亚洲一区二区三区国产精华液 | 成人无码影片精品久久久 | 青青草原综合久久大伊人精品 | 永久免费精品精品永久-夜色 | 国产免费无码一区二区视频 | 日本又色又爽又黄的a片18禁 | 欧洲vodafone精品性 | 久久精品女人的天堂av | 亚洲高清偷拍一区二区三区 | 国产激情综合五月久久 | 动漫av网站免费观看 | 国产精品久久久 | 国产精品久免费的黄网站 | 久久久婷婷五月亚洲97号色 | 大地资源网第二页免费观看 | 玩弄少妇高潮ⅹxxxyw | а√资源新版在线天堂 | 国产又爽又黄又刺激的视频 | 欧美成人午夜精品久久久 | 99久久亚洲精品无码毛片 | 亚洲色偷偷偷综合网 | 亚洲国产精品毛片av不卡在线 | 激情内射亚州一区二区三区爱妻 | 国产成人久久精品流白浆 | 最近中文2019字幕第二页 | 乱人伦人妻中文字幕无码久久网 | 国语精品一区二区三区 | 国产精品高潮呻吟av久久 | 亚洲春色在线视频 | 伊人久久大香线蕉av一区二区 | 成人免费视频一区二区 | 欧美阿v高清资源不卡在线播放 | 任你躁国产自任一区二区三区 | 人妻夜夜爽天天爽三区 | 色综合久久88色综合天天 | 台湾无码一区二区 | 国产人妻人伦精品1国产丝袜 | 国产午夜视频在线观看 | 无码人妻黑人中文字幕 | 精品久久久久久亚洲精品 | 西西人体www44rt大胆高清 | 午夜不卡av免费 一本久久a久久精品vr综合 | 亚洲综合精品香蕉久久网 | 国产艳妇av在线观看果冻传媒 | 伊人色综合久久天天小片 | v一区无码内射国产 | 国语自产偷拍精品视频偷 | 国产欧美熟妇另类久久久 | 日日碰狠狠躁久久躁蜜桃 | 精品 日韩 国产 欧美 视频 | 久久综合香蕉国产蜜臀av | 亚洲日韩一区二区三区 | 亚洲精品一区三区三区在线观看 | 亚洲中文字幕无码一久久区 | 爽爽影院免费观看 | 思思久久99热只有频精品66 | 精品国产乱码久久久久乱码 | 国产情侣作爱视频免费观看 | 波多野结衣高清一区二区三区 | 国产欧美精品一区二区三区 | 亚洲一区二区三区偷拍女厕 | 18黄暴禁片在线观看 | 国产suv精品一区二区五 | 久久国产精品精品国产色婷婷 | 人妻中文无码久热丝袜 | 色偷偷人人澡人人爽人人模 | 波多野结衣乳巨码无在线观看 | 国产成人综合在线女婷五月99播放 | 人妻少妇精品无码专区二区 | 激情亚洲一区国产精品 | 一个人免费观看的www视频 | 伊人久久大香线蕉av一区二区 | 国产午夜福利亚洲第一 | 成人性做爰aaa片免费看不忠 | www国产精品内射老师 | 亚洲精品中文字幕久久久久 | 老子影院午夜精品无码 | 久久人人爽人人爽人人片av高清 | 波多野结衣av一区二区全免费观看 | a在线观看免费网站大全 | 国产成人无码av一区二区 | 人妻尝试又大又粗久久 | 欧美丰满老熟妇xxxxx性 | 亚洲а∨天堂久久精品2021 | 狂野欧美性猛交免费视频 | 午夜肉伦伦影院 | 无码人妻精品一区二区三区不卡 | 国产av无码专区亚洲a∨毛片 | 无遮挡啪啪摇乳动态图 | 国产精品久久久久影院嫩草 | 成在人线av无码免观看麻豆 | 美女毛片一区二区三区四区 | 中文字幕乱码中文乱码51精品 | 免费网站看v片在线18禁无码 | 奇米影视888欧美在线观看 | 正在播放东北夫妻内射 | 日本精品人妻无码免费大全 | 无码吃奶揉捏奶头高潮视频 | 久久99精品久久久久婷婷 | 国产内射爽爽大片视频社区在线 | 中文字幕亚洲情99在线 | 国产真实伦对白全集 | 乱码av麻豆丝袜熟女系列 | 亚洲s码欧洲m码国产av | 97se亚洲精品一区 | 人人爽人人爽人人片av亚洲 | 精品久久久久久亚洲精品 | 国产精品无码一区二区三区不卡 | 欧美 日韩 亚洲 在线 | 国产av无码专区亚洲awww | 狠狠色噜噜狠狠狠7777奇米 | 午夜无码区在线观看 | 中文字幕精品av一区二区五区 | 成人亚洲精品久久久久 | 亚洲第一无码av无码专区 | 在线观看免费人成视频 | 久久久精品国产sm最大网站 | 久久久久久亚洲精品a片成人 | 国产偷抇久久精品a片69 | 成人影院yy111111在线观看 | 亚洲精品一区二区三区婷婷月 | 澳门永久av免费网站 | 高潮喷水的毛片 | 影音先锋中文字幕无码 | 麻豆md0077饥渴少妇 | 成人无码视频在线观看网站 | 台湾无码一区二区 | 樱花草在线播放免费中文 | 夜精品a片一区二区三区无码白浆 | 2020久久香蕉国产线看观看 | www国产精品内射老师 | 一本久久a久久精品亚洲 | 色婷婷综合中文久久一本 | 欧美精品免费观看二区 | 久久久精品国产sm最大网站 | 2020最新国产自产精品 | 成年美女黄网站色大免费全看 | 国产精品人人妻人人爽 | 日韩欧美中文字幕在线三区 | 亚洲成在人网站无码天堂 | 网友自拍区视频精品 | 国产美女精品一区二区三区 | 欧美性生交xxxxx久久久 | 狠狠色欧美亚洲狠狠色www | 扒开双腿疯狂进出爽爽爽视频 | 国产精品毛片一区二区 | 人人妻人人澡人人爽欧美精品 | 无码乱肉视频免费大全合集 | 日韩精品a片一区二区三区妖精 | 一个人免费观看的www视频 | 亚洲 激情 小说 另类 欧美 | 亚洲第一网站男人都懂 | 野狼第一精品社区 | 久久精品中文字幕一区 | 午夜成人1000部免费视频 | 无码精品国产va在线观看dvd | 好男人www社区 | 我要看www免费看插插视频 | 国产亚洲精品久久久闺蜜 | 色一情一乱一伦一区二区三欧美 | 国产熟妇高潮叫床视频播放 | 亚洲日韩一区二区 | 久久99热只有频精品8 | 3d动漫精品啪啪一区二区中 | 成人亚洲精品久久久久软件 | 亚洲自偷自偷在线制服 | 国产精品资源一区二区 | 国产人妻精品一区二区三区不卡 | 女人被男人躁得好爽免费视频 | 国产三级久久久精品麻豆三级 | 日韩亚洲欧美中文高清在线 | 人妻天天爽夜夜爽一区二区 | 日本欧美一区二区三区乱码 | 国产人妻久久精品二区三区老狼 | 97精品人妻一区二区三区香蕉 | 东北女人啪啪对白 | 国内揄拍国内精品人妻 | 日韩精品成人一区二区三区 | 青青草原综合久久大伊人精品 | 亚洲中文字幕在线观看 | 欧美激情内射喷水高潮 | 97久久精品无码一区二区 | 国产偷自视频区视频 | 大乳丰满人妻中文字幕日本 | 樱花草在线社区www | 色综合久久中文娱乐网 | 暴力强奷在线播放无码 | 激情爆乳一区二区三区 | 亚洲精品久久久久久久久久久 | 99久久99久久免费精品蜜桃 | 日韩成人一区二区三区在线观看 | 性啪啪chinese东北女人 | 中国女人内谢69xxxx | 在线成人www免费观看视频 | 久久久久se色偷偷亚洲精品av | 好爽又高潮了毛片免费下载 | 欧美三级不卡在线观看 | 午夜精品一区二区三区的区别 | 日韩av无码一区二区三区不卡 | 日产精品99久久久久久 | 青青青手机频在线观看 | 国产熟妇高潮叫床视频播放 | 高中生自慰www网站 | 综合网日日天干夜夜久久 | 国内精品久久久久久中文字幕 | 亚洲国产精品久久人人爱 | 无套内射视频囯产 | 丁香啪啪综合成人亚洲 | 国产亚洲精品久久久久久久久动漫 | 老司机亚洲精品影院 | 99久久亚洲精品无码毛片 | 大乳丰满人妻中文字幕日本 | 亚洲熟妇色xxxxx亚洲 | 天天爽夜夜爽夜夜爽 | 成人片黄网站色大片免费观看 | 日韩av无码一区二区三区 | 国产成人精品久久亚洲高清不卡 | 日本精品高清一区二区 | 国产在热线精品视频 | 亚洲精品综合五月久久小说 | 高清国产亚洲精品自在久久 | 国产av一区二区三区最新精品 | 无码纯肉视频在线观看 | 亚洲七七久久桃花影院 | 67194成是人免费无码 | 亚洲国产av美女网站 | 日本一区二区更新不卡 | 国产午夜无码视频在线观看 | 2019午夜福利不卡片在线 | 老头边吃奶边弄进去呻吟 | 色老头在线一区二区三区 | 国模大胆一区二区三区 | 久久精品女人天堂av免费观看 | 成人性做爰aaa片免费看 | 成人女人看片免费视频放人 | 国产亚洲视频中文字幕97精品 | 又大又紧又粉嫩18p少妇 | 久久精品女人的天堂av | 最新国产乱人伦偷精品免费网站 | 日韩少妇白浆无码系列 | 亚洲精品一区二区三区婷婷月 | 天天拍夜夜添久久精品大 | 乱人伦人妻中文字幕无码 | 国产在线无码精品电影网 | v一区无码内射国产 | 中文字幕av伊人av无码av | 亚洲成a人片在线观看无码 | 亚洲人亚洲人成电影网站色 | 欧美熟妇另类久久久久久多毛 | 无码国产激情在线观看 | 巨爆乳无码视频在线观看 | 亚洲人成人无码网www国产 | 亚洲欧美精品aaaaaa片 | 99久久精品日本一区二区免费 | 99久久99久久免费精品蜜桃 | 久久久久亚洲精品男人的天堂 | 成人免费视频视频在线观看 免费 | 98国产精品综合一区二区三区 | 国产精品亚洲综合色区韩国 | 成年美女黄网站色大免费全看 | 国产精品无码成人午夜电影 | 自拍偷自拍亚洲精品被多人伦好爽 | 天天摸天天透天天添 | 国产av无码专区亚洲awww | 成人综合网亚洲伊人 | 亚洲a无码综合a国产av中文 | 久久久久久久久蜜桃 | 国产精品久久久久无码av色戒 | 成人免费视频在线观看 | 国产乱人伦av在线无码 | 国产两女互慰高潮视频在线观看 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 欧美兽交xxxx×视频 | 亚洲综合无码一区二区三区 | 亚洲综合无码一区二区三区 | 牲欲强的熟妇农村老妇女 | 亚洲日本一区二区三区在线 | 亚洲aⅴ无码成人网站国产app | 国产97人人超碰caoprom | 国产亚洲精品精品国产亚洲综合 | 欧美国产亚洲日韩在线二区 | 狠狠亚洲超碰狼人久久 | 成人女人看片免费视频放人 | 九九在线中文字幕无码 | 扒开双腿疯狂进出爽爽爽视频 | 久久精品国产99精品亚洲 | 欧美自拍另类欧美综合图片区 | 中文字幕无码乱人伦 | 免费人成网站视频在线观看 | 98国产精品综合一区二区三区 | 久久综合九色综合欧美狠狠 | 中文无码成人免费视频在线观看 | 2019nv天堂香蕉在线观看 | 欧美熟妇另类久久久久久多毛 | 亚洲成av人影院在线观看 | 特黄特色大片免费播放器图片 | 伊人久久大香线蕉午夜 | 捆绑白丝粉色jk震动捧喷白浆 | 成人片黄网站色大片免费观看 | 国产黑色丝袜在线播放 | 牲欲强的熟妇农村老妇女视频 | 男人的天堂2018无码 | 欧美肥老太牲交大战 | 国产精品美女久久久 | 装睡被陌生人摸出水好爽 | 成人精品天堂一区二区三区 | 欧美成人午夜精品久久久 | 熟女少妇在线视频播放 | 午夜精品久久久久久久 | 亚洲区小说区激情区图片区 | 无码国模国产在线观看 | 久久久中文久久久无码 | 内射后入在线观看一区 | 国产乱人偷精品人妻a片 | 最近的中文字幕在线看视频 | 波多野结衣av在线观看 | 精品成在人线av无码免费看 | 亚洲欧美精品伊人久久 | 中文字幕 人妻熟女 | 曰本女人与公拘交酡免费视频 | 人妻少妇精品视频专区 | 最近中文2019字幕第二页 | 亚洲伊人久久精品影院 | 人妻夜夜爽天天爽三区 | 欧美刺激性大交 | 色一情一乱一伦一视频免费看 | 久久99精品国产.久久久久 | 精品无码国产自产拍在线观看蜜 | 18黄暴禁片在线观看 | 成人无码精品1区2区3区免费看 | 国产va免费精品观看 | 55夜色66夜色国产精品视频 | 国产精品久久久久久久9999 | 精品国产乱码久久久久乱码 | 女人被爽到呻吟gif动态图视看 | 国内精品人妻无码久久久影院蜜桃 | 伊在人天堂亚洲香蕉精品区 | 国产极品美女高潮无套在线观看 | 免费播放一区二区三区 | 人妻天天爽夜夜爽一区二区 | 亚欧洲精品在线视频免费观看 | 极品尤物被啪到呻吟喷水 | 成人免费视频视频在线观看 免费 | 中文毛片无遮挡高清免费 | 水蜜桃色314在线观看 | 国产无套粉嫩白浆在线 | 精品熟女少妇av免费观看 | 高中生自慰www网站 | 夜夜躁日日躁狠狠久久av | 国语精品一区二区三区 | 欧美国产日产一区二区 | 亚洲国产午夜精品理论片 | 狠狠色丁香久久婷婷综合五月 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 欧美 亚洲 国产 另类 | 中文精品无码中文字幕无码专区 | 日韩欧美成人免费观看 | 国产精品资源一区二区 | 国产免费观看黄av片 | 国产精品无码mv在线观看 | 18精品久久久无码午夜福利 | 东京一本一道一二三区 | 国产精品国产自线拍免费软件 | 久久久精品人妻久久影视 | 久久99久久99精品中文字幕 | 亚洲人交乣女bbw | 久在线观看福利视频 | 无码av中文字幕免费放 | 亚洲七七久久桃花影院 | 久久精品国产日本波多野结衣 | 亚洲 欧美 激情 小说 另类 | 强开小婷嫩苞又嫩又紧视频 | 夜先锋av资源网站 | 国产无套内射久久久国产 | 午夜精品一区二区三区的区别 | 精品aⅴ一区二区三区 | 欧美精品国产综合久久 | 国产成人精品三级麻豆 | 亚洲爆乳无码专区 | 国产亚洲精品久久久久久大师 | 国产一区二区三区影院 | 夜夜躁日日躁狠狠久久av | 国产亚洲人成a在线v网站 | 97夜夜澡人人爽人人喊中国片 | 97久久国产亚洲精品超碰热 | 麻豆人妻少妇精品无码专区 | 国产欧美精品一区二区三区 | 中文字幕乱码人妻无码久久 | 亚洲国产精品久久久久久 | 日本精品人妻无码77777 天堂一区人妻无码 | 在线a亚洲视频播放在线观看 | 亚洲成a人一区二区三区 | 国产成人无码av片在线观看不卡 | 装睡被陌生人摸出水好爽 | 性生交片免费无码看人 | 激情内射亚州一区二区三区爱妻 | 国产精品国产自线拍免费软件 | 国产精品视频免费播放 | 久久综合给久久狠狠97色 | 精品无码国产自产拍在线观看蜜 | 欧美精品无码一区二区三区 |