3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Fully Convolutional Networks for Semantic Segmentation (FCN)论文翻译和理解

發布時間:2025/3/15 编程问答 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Fully Convolutional Networks for Semantic Segmentation (FCN)论文翻译和理解 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

論文題目:Fully Convolutional Networks for Semantic Segmentation
論文來源:Fully Convolutional Networks for Semantic Segmentation_2015_CVPR
翻譯人:莫陌莫墨

Fully Convolutional Networks for Semantic Segmentation

Jonathan Long? Evan Shelhamer? Trevor Darrell UC Berkeley {jonlong,shelhamer,trevor}@cs.berkeley.edu

用于語義分割的全卷積網絡

Jonathan Long? Evan Shelhamer? Trevor Darrell UC Berkeley {jonlong,shelhamer,trevor}@cs.berkeley.edu

Abstract

Convolutional networks are powerful visual models that yield hierarchies of features. We show that convolutional networks by themselves, trained end-to-end, pixelsto-pixels, exceed the state-of-the-art in semantic segmentation. Our key insight is to build “fully convolutional” networks that take input of arbitrary size and produce correspondingly-sized output with efficient inference and learning. We define and detail the space of fully convolutional networks, explain their application to spatially dense prediction tasks, and draw connections to prior models. We adapt contemporary classification networks (AlexNet [20], the VGG net [31], and GoogLeNet [32]) into fully convolutional networks and transfer their learned representations by fine-tuning [3] to the segmentation task. We then define a skip architecture that combines semantic information from a deep, coarse layer with appearance information from a shallow, fine layer to produce accurate and detailed segmentations. Our fully convolutional net-work achieves stateof-the-art segmentation of PASCAL VOC (20% relative improvement to 62.2% mean IU on 2012), NYUDv2, and SIFT Flow, while inference takes less than one fifth of a second for a typical image.

摘要

卷積網絡是可以產生特征層次的強大可視化模型。我們表明,卷積網絡本身,經過端到端,像素到像素的訓練,在語義分割方面超過了最先進的水平。我們的主要見解是建立“ 全卷積”網絡,該網絡可接受任意大小的輸入,并通過有效的推理和學習產生相應大小的輸出。我們定義并詳細說明了完全卷積網絡的空間,解釋了它們在空間密集預測任務中的應用,并闡述了與先前模型的聯系。我們將當代分類網絡(AlexNet [20]、VGG網絡[31]和GoogLeNet [32])改造成完全卷積網絡,并通過微調[3]將它們的學習表示轉移到分割任務中。然后,我們定義了一個跳躍結構,它將來自深度粗糙層的語義信息與來自淺層精細層的外觀信息相結合,以生成準確和詳細的分割。我們的全卷積網絡實現了對PASCAL VOC(相對于2012年62.2%的平均IU改進率為20%)、NYUDv2和SIFT Flow的最先進的分割,而對于典型的圖像,推斷時間不到五分之一秒。

1. 解決了輸入大小尺寸限制問題
2. 將經典分類網絡改造成全卷積網絡,開創了語義分割的先河,實現了像素級別(end-to-end)的分類預測
3. 實現了對PASCAL VOC、NYUDv2和SIFT Flow的最先進的分割
4. 主要技術貢獻(卷積化、跳躍連接、反卷積)

1.Introduction

Convolutional networks are driving advances in recognition. Convnets are not only improving for whole-image classification [20, 31, 32], but also making progress on local tasks with structured output. These include advances in bounding box object detection [29, 10, 17], part and keypoint prediction [39, 24], and local correspondence [24, 8].

The natural next step in the progression from coarse to fine inference is to make a prediction at every pixel. Prior approaches have used convnets for semantic segmentation [27, 2, 7, 28, 15, 13, 9], in which each pixel is labeled with the class of its enclosing object or region, but with shortcomings that this work addresses.

We show that a fully convolutional network (FCN) trained end-to-end, pixels-to-pixels on semantic segmentation exceeds the state-of-the-art without further machinery. To our knowledge, this is the first work to train FCNs end-to-end (1) for pixelwise prediction and (2) from supervised pre-training. Fully convolutional versions of existing networks predict dense outputs from arbitrary-sized inputs. Both learning and inference are performed whole-image-ata-time by dense feedforward computation and backpropagation. In-network upsampling layers enable pixelwise prediction and learning in nets with subsampled pooling.

This method is efficient, both asymptotically and absolutely, and precludes the need for the compli-cations in other works. Patchwise training is common [27, 2, 7, 28, 9], but lacks the efficiency of fully convolutional training. Our approach does not make use of pre- and post-processing complications, including superpixels [7, 15], proposals [15, 13], or post-hoc refinement by random fields or local class-ifiers [7, 15]. Our model transfers recent success in classification [20, 31, 32] to dense prediction by reinterpreting classification nets as fully convolutional and fine-tuning from their learned representa-tions. In contrast, previous works haveappliedsmallconvnetswithoutsupervisedpre-training [7, 28, 27].

Semantic segmentation faces an inherent tension between semantics and location: global information resolves what while local information resolves where. Deep feature hierarchies encode location and semantics in a nonlinear local-to-global pyramid. We define a skip architecture to take advantage of this feature spectrum that combines deep, coarse, semantic information and shallow, fine, appearance information in Section 4.2 (see Figure 3).

In the next section, we review related work on deep classification nets, FCNs, and recent approaches to semantic segmentation using convnets. The following sections explain FCN design and dense prediction tradeoffs, introduce our architecture with in-network upsampling and multilayer combinations, and describe our experimental framework. Finally, we demonstrate state-of-the-art results on PASCAL VOC 2011-2, NYUDv2, and SIFT Flow.

1.引言

卷積網絡正在推動識別技術的進步。卷積網絡不僅在改善了整體圖像分類[20,31,32],而且還在具有結構化輸出的局部任務上也取得了進展。這些進展包括邊界框目標檢測[29,10,17],部分和關鍵點預測[39,24],以及局部對應[24,8]。

從粗略推斷到精細推理,很自然下一步是對每個像素進行預測。先前的方法已經使用了卷積網絡用于語義分割[27,2,7,28,15,13,9],其中每個像素都用其包圍的對象或區域的類別來標記,但是存在該工作要解決的缺點。

圖中21代表PASCAL VOC數據集P,總共 20 個小類(加背景 21 類)

我們表明了在語義分割上,經過端到端,像素到像素訓練的完全卷積網絡(FCN)超過了最新技術,而無需其他機制。據我們所知,這是第一個從(2)有監督的預訓練,端到端訓練地FCN(1)用于像素預測。現有網絡的完全卷積版本可以預測來自任意大小輸入的密集輸出。學習和推理都是通過密集的前饋計算和反向傳播在整個圖像上進行的。網絡內上采樣層通過子采樣池化來實現網絡中的像素預測和學習。

這種方法在漸近性和絕對性兩方面都是有效的,并且排除了對其他工作中的復雜性的需要。逐塊訓練是很常見的[27,2,8,28,11],但缺乏完全卷積訓練的效率。我們的方法沒有利用前后處理的復雜性,包括超像素[8,16],建議[16,14],或通過隨機字段或局部分類器進行事后細化[8,16]。我們的模型通過將分類網絡重新解釋為完全卷積并從其學習的表示中進行微調,將最近在分類任務[19,31,32]中取得的成功轉移到密集預測任務。相比之下,以前的工作是在沒有經過有監督的預訓練的情況下應用了小型卷積網絡[7,28,27]。

語義分割面臨著語義和位置之間的固有矛盾:全局信息解決了什么,而局部信息解決了什么。 深度特征層次結構以非線性的局部到全局金字塔形式對位置和語義進行編碼。 在4.2節中,我們定義了一個跳躍結構來充分利用這種結合了深層,粗略,語義信息和淺層,精細,外觀信息的特征譜(請參見圖3)。

在下一節中,我們將回顧有關深度分類網,FCN和使用卷積網絡進行語義分割的最新方法的相關工作。 以下各節介紹了FCN設計和密集的預測權衡,介紹了我們的具有網絡內上采樣和多層組合的架構,并描述了我們的實驗框架。 最后,我們演示了PASCAL VOC 2011-2,NYUDv2和SIFT Flow的最新結果。

介紹卷積的概念,以及如何過渡到要進行像素預測的一個想法,然后介紹了FCN主要的一些貢獻,包括可以任意大小的輸入,skip結構等,以及最后的實驗結果。

2.Related work

Our approach draws on recent successes of deep nets for image classification [20, 31, 32] and transfer learning [3, 38]. Transfer was first demonstrated on various visual recognition tasks [3, 38], then on detection, and on both instance and semantic segmentation in hybrid proposalclassifier models [10, 15, 13]. We now re-architect and finetune classification nets to direct, dense prediction of semantic seg-mentation. We chart the space of FCNs and situate prior models, both historical and recent, in this framework.

Fully convolutional networks To our knowledge, the idea of extending a convnet to arbitrary-sized inputs first appeared in Matan et al. [26], which extended the classic LeNet [21] to recognize strings of digits. Because their net was limited to one-dimensional input strings, Matan et al. used Viterbi decoding to obtain their outputs. Wolf and Platt [37] expand convnet outputs to 2-dimensional maps of detection scores for the four corners of postal address blocks. Both of these historical works do inference and learning fully convolutionally for detection. Ning et al. [27] define a convnet for coarse multiclass segmentation of C. elegans tissues with fully convolutional inference.

Fully convolutional computation has also been exploited in the present era of many-layered nets. Sliding window detection by Sermanet et al. [29], semantic segmentation by Pinheiro and Collobert [28], and image restoration by Eigen et al. [4] do fully convolutional inference. Fully convolutional training is rare, but used effectively by Tompson et al. [35] to learn an end-to-end part detector and spatial model for pose estimation, although they do not exposit on or analyze this method.

Alternatively, He et al. [17] discard the nonconvolutional portion of classification nets to make a feature extractor. They combine proposals and spatial pyramid pooling to yield a localized, fixed-length feature for classification. While fast and effective, this hybrid model cannot be learned end-to-end.

Dense prediction with convnets Several recent works have applied convnets to dense prediction problems, including semantic segmentation by Ning et al. [27], Farabet et al.[7], and Pinheiro and Collobert [28]; boundary prediction for electron microscopy by Ciresan et al. [2] and for natural images by a hybrid convnet/nearest neighbor model by Ganin and Lempitsky [9]; and image restoration and depth estimation by Eigen et al. [4, 5]. Common elements of these approaches include
? small models restricting capacity and receptive fields;
? patchwise training [27, 2, 7, 28, 9];
? post-processing by superpixel projection, random field regularization, filtering, or local classification [7, 2, 9];
? input shifting and output interlacing for dense output [29, 28, 9];
? multi-scale pyramid processing [7, 28, 9];
? saturating tanh nonlinearities [7, 4, 28]; and
? ensembles [2, 9],
whereas our method does without this machinery. However, we do study patchwise training 3.4 and “shift-and-stitch” dense output 3.2 from the perspective of FCNs. We also discuss in-network upsamp-ling 3.3, of which the fully connected prediction by Eigen et al. [5] is a special case.

Unlike these existing methods, we adapt and extend deep classification architectures, using image classification as supervised pre-training, and fine-tune fully convolutionally to learn simply and eff-iciently from whole image inputs and whole image ground thruths.

Hariharan et al. [15] and Gupta et al. [13] likewise adapt deep classification nets to semantic segmen-tation, but do so in hybrid proposal-classifier models. These approaches fine-tune an R-CNN system [10] by sampling bounding boxes and/or region proposals for detection, semantic segmentation, and instance segmentation. Neither method is learned end-to-end. They achieve state-of-the-art segmen-tation results on PASCAL VOC and NYUDv2 respectively, so we directly compare our standalone, end-to-end FCN to their semantic segmentation results in Section 5.

We fuse features across layers to defineanonlinearlocalto-global representation that we tune end-to-end. In contemporary work Hariharan et al. [16] also use multiple layers in their hybrid model for se-mantic segmentation.

2.相關工作

我們的方法借鑒了最近成功的用于圖像分類[20, 31, 32]和遷移學習[3,38]的深度網絡。遷移首先在各種視覺識別任務[3,38],然后是檢測,以及混合提議分類器模型中的實例和語義分割任務[10,15,13]上進行了演示。我們現在重新構建和微調分類網絡,來直接,密集地預測語義分割。我們繪制了FCN的空間,并在此框架中放置了歷史和近期的先前模型。

全卷積網絡 據我們所知,Matan等人首先提出了將一個卷積網絡擴展到任意大小的輸入的想法。 [26],它擴展了classicLeNet [21]來識別數字串。因為他們的網絡被限制為一維輸入字符串,所以Matan等人使用Viterbi解碼來獲得它們的輸出。Wolf和Platt [37]將卷積網絡輸出擴展為郵政地址塊四個角的檢測分數的二維圖。這兩個歷史工作都是通過完全卷積進行推理和學習,以便進行檢測。 寧等人 [27]定義了一個卷積網絡,通過完全卷積推理對秀麗隱桿線蟲組織進行粗多類分割。

在當前的多層網絡時代,全卷積計算也已經得到了利用。Sermanet等人的滑動窗口檢測 [29],Pinheiro和Collobert [28]的語義分割,以及Eigen等人的圖像恢復 [4]都做了全卷積推理。全卷積訓練很少見,但Tompson等人有效地使用了它 [35]來學習一個端到端的部分探測器和用于姿勢估計的空間模型,盡管他們沒有對這個方法進行解釋或分析。

或者,He等人 [17]丟棄分類網絡的非卷積部分來制作特征提取器。它們結合了建議和空間金字塔池,以產生用于一個局部化,固定長度特征的分類。雖然快速有效,但這種混合模型無法進行端到端地學習。

用卷積網絡進行密集預測 最近的一些研究已經將卷積網絡應用于密集預測問題,包括Ning等[27],Farabet等[7],Pinheiro和Collobert 等[28] ;Ciresan等人的電子顯微鏡邊界預測[2],Ganin和Lempitsky的混合卷積網絡/最近鄰模型的自然圖像邊界預測[9];Eigen等人的圖像恢復和深度估計 [4,5]。這些方法的共同要素包括:
? 限制容量和感受野的小模型;
? 逐塊訓練[27, 2, 7, 28, 9];
? 有超像素投影,隨機場正則化,濾波或局部分類[7,2,9]的后處理過程;
? 密集輸出的輸入移位和輸出交錯[29,28,9];
? 多尺度金字塔處理[7,28,9];
? 飽和tanh非線性[7,4,28];
? 集成[2,9]
而我們的方法沒有這種機制。然而,我們從FCN的角度研究了逐塊訓練3.4節和“移位 - 連接”密集輸出3.2節。我們還討論了網絡內上采樣3.3節,其中Eigen等人的全連接預測 [6]是一個特例。

與這些現有方法不同,我們采用并擴展了深度分類架構,使用圖像分類作為有監督的預訓練,并通過全卷積微調,以簡單有效的從整個圖像輸入和整個圖像的Ground Truths中學習。

在機器學習中ground truth表示有監督學習的訓練集的分類準確性,用于證明或者推翻某個假設。有監督的機器學習會對訓練數據打標記,試想一下如果訓練標記錯誤,那么將會對測試數據的預測產生影響,因此這里將那些正確打標記的數據成為ground truth。
Hariharan等人 [15]和Gupta等人 [13]同樣使深度分類網適應語義分割,但只在混合建議 - 分類器模型中這樣做。這些方法通過對邊界框和/或候選域采樣來微調R-CNN系統[10],以進行檢測,語義分割和實例分割。這兩種方法都不是端到端學習的。他們分別在PASCAL VOC和NYUDv2實現了最先進的分割成果,因此我們直接在第5節中將我們的獨立端到端FCN與他們的語義分割結果進行比較。

我們融合各層的特征去定義一個我們端到端調整的非線性局部到全局的表示。在當代工作中,Hariharan等人[16]也在其混合模型中使用了多層來進行語義分割。

介紹了FCN中關鍵部分的全卷積網絡和密集預測的研究現狀

3.Fully convolutional networks

Each layer of data in a convnet is a three-dimensional array of size h × w × d, where h and w are spatial dimensions, and d is the feature or channel dimension. The first layer is the image, with pixel size h × w, and d color channels. Locations in higher layers correspond to the locations in the image they are path-connected to, which are called their receptive fields.

Convnets are built on translation invariance. Their basic components (convolution, pooling, and acti-vation functions) operate on local input regions, and depend only on relative spatial coordinates. Writ-ing XijX_{ij}Xij?for the data vector at location (i, j) in a particular layer, and yijy_{ij}yij? for the following layer, these functions compute outputs yijy_{ij}yij? by
yij=fks({xsi+δi,sj+δj}0≤δi,δj≤k)y_{ij} = f_{ks}(\{x_{si+\delta i,sj+\delta j}\}_{0\le \delta i,\delta j \le k})yij?=fks?({xsi+δi,sj+δj?}0δi,δjk?)
where k is called the kernel size, s is the stride or subsampling factor, and fksf_{ks}fks? determines the layer type: a matrix multiplication for convolution or average pooling, a spatial max for max pooling, or an elementwise nonlinearity for an activation function, and so on for other types of layers.

This functional form is maintained under composition,with kernel size and stride obeying the trans-formation rule
fks°gk′s′=(f°g)k′+(k?1)s′,ss′.f_{ks}\circ g_{k's'} = (f\circ g)_{k'+(k-1)s',ss'}.fks?°gks?=(f°g)k+(k?1)s,ss?.
While a general deep net computes a general nonlinear function, a net with only layers of this form computes a nonlinear filter, which we call a deep filter or fully convolutional network. An FCN naturally operates on an input of any size, and produces an output of corresponding (possibly resampled) spatial dimensions.

A real-valued loss function composed with an FCN defines a task. If the loss function is a sum over the spatial dimensions of the final layer, l(x;θ)=∑ijl′(xij;θ)l(x;θ) =\sum_{ ij}l'(x_{ij};θ)l(x;θ)=ij?l(xij?;θ), its gradient will be a sum over the gra-dients of each of its spatial components. Thus stochastic gradient descent on lll computed on whole images will be the same as stochastic gradient descent on l′l'l, taking all of the final layer receptive fields as a minibatch.

When these receptive fields overlap significantly, both feedforward computation and backpropagation are much more efficient when computed layer-by-layer over an entire image instead of independently patch-by-patch.

We next explain how to convert classification nets into fully convolutional nets that produce coarse output maps. For pixelwise prediction, we need to connect these coarse outputs back to the pixels. Section 3.2 describes a trick, fast scanning [11], introduced for this purpose. We gain insight into this trick by reinterpreting it as an equivalent network modification. As an efficient, effective alternative, we introduce deconvolution layers for upsampling in Section 3.3. In Section 3.4 we consider training by patchwise sampling, and give evidence in Section 4.3 that our whole image training is faster and equally effective.

3.全卷積網絡

卷積網絡中的每一層數據都是大小為h×w×d的三維數組,其中hw是空間維度,d是特征或通道維度。第一層是有著像素大小為h×w,以及d個顏色通道的圖像,較高層中的位置對應于它們路徑連接的圖像中的位置,這些位置稱為其感受野。

卷及網絡建立在平移不變性的基礎之上。它們的基本組成部分(卷積,池化和激活函數)作用于局部輸入區域,并且僅依賴于相對空間坐標。用XijX_{ij}Xij?表示特定層位置(x,j)處的數據向量,yijy_{ij}yij?表示下一層的數據向量,可以通過下式來計算yijy_{ij}yij?:
yij=fks({xsi+δi,sj+δj}0≤δi,δj≤k)y_{ij} = f_{ks}(\{x_{si+\delta i,sj+\delta j}\}_{0\le \delta i,\delta j \le k})yij?=fks?({xsi+δi,sj+δj?}0δi,δjk?)
其中k稱為內核大小,s為步長或者子采樣因子,fksf_{ks}fks?決定層的類型:用于卷積或平均池化的矩陣乘法,用于最大池化的空間最大值,或用于激活函數的非線性元素,用于其他類型的層等等。

這種函數形式在組合下維護,內核大小和步長遵守轉換規則:
fks°gk′s′=(f°g)k′+(k?1)s′,ss′.f_{ks}\circ g_{k's'} = (f\circ g)_{k'+(k-1)s',ss'}.fks?°gks?=(f°g)k+(k?1)s,ss?.
當一般的深度網絡計算一般的非線性函數,只有這種形式的層的網絡計算非線性濾波器,我們稱之為深度濾波器或完全卷積網絡。FCN自然地對任何大小的輸入進行操作,并產生相應(可能重采樣)空間維度的輸出。

由FCN組成的實值損失函數定義了任務。如果損失函數是最終層的空間維度的總和, l(x;θ)=∑ijl′(xij;θ)l(x;θ) =\sum_{ ij}l'(x_{ij};θ)l(x;θ)=ij?l(xij?;θ),它的梯度將是每個空間分量的梯度之和。因此,對整個圖像計算的 lll 的隨機梯度下降將與將所有最終層感受野視為小批量的 l′l'l 上的隨機梯度下降相同。

當這些感受野顯著重疊時,前饋計算和反向傳播在整個圖像上逐層計算而不是單獨逐塊計算時效率更高。

接下來,我們將解釋如何將分類網絡轉換為產生粗輸出圖的完全卷積網絡。對于逐像素預測,我們需要將這些粗略輸出連接回像素。第3.2節為此目的引入了一個技巧,即快速掃描[11]。我們通過將其重新解釋為等效的網絡修改來深入了解這一技巧。作為一種有效的替代方案,我們在第3.3節中介紹了用于上采樣的反卷積層。在第3.4節中,我們考慮了通過逐點抽樣進行的訓練,并在第4.3節中給出了證據,證明我們的整體圖像訓練更快且同樣有效。

3.1. Adapting classifiers for dense prediction

Typical recognition nets, including LeNet [21], AlexNet [20], and its deeper successors [31, 32], ostensibly take fixed-sized inputs and produce non-spatial outputs. The fully connected layers of these nets have fixed dimensions and throw away spatial coordinates. However, these fully connected layers can also be viewed as convolutions with kernels that cover their entire input regions. Doing so casts them into fully convolutional networks that take input of any size and output classification maps. This transformation is illustrated in Figure 2.

Furthermore, while the resulting maps are equivalent to the evaluation of the original net on particular input patches, the computation is highly amortized over the overlapping regions of those patches. For example, while AlexNet takes 1.2 ms (on a typical GPU) to infer the classification scores of a 227×227 image, the fully convolutional net takes 22ms to produce a 10×10 grid of outputs from a 500×500 image, which is more than 5 times faster than the na¨ ?ve approach1.

The spatial output maps of these convolutionalized models make them a natural choice for dense problems like semantic segmentation. With ground truth available at every output cell, both the forward and backward passes are straightforward, and both take advantage of the inherent computational efficiency (and aggressive optimization) of convolution. The corresponding backward times for the AlexNet example are 2.4 ms for a single image and 37 ms for a fully convolutional 10 × 10 output map, resulting in a speedup similar to that of the forward pass.

While our reinterpretation of classification nets as fully convolutional yields output maps for inputs of any size, the output dimensions are typically reduced by subsampling. The classification nets sub-sample to keep filters small and computational requirements reasonable. This coarsens the output of a fully convolutional version of these nets, reducing it from the size of the input by a factor equal to the pixel stride of the receptive fields of the output units.

3.1. 調整分類器以進行密集預測

典型的識別網絡,包括LeNet [21]、AlexNet [20]及其更深層的后繼網絡[31、32],表面上接受固定大小的輸入并產生非空間輸出。這些網絡的全連接層具有固定的尺寸并且丟棄了空間坐標。然而,這些完全連接的層也可以被視為具有覆蓋其整個輸入區域的內核的卷積。這樣做將它們轉換成完全卷積的網絡,該網絡可以接受任何大小的輸入并輸出分類圖。這個轉換如圖2所示。(相比之下,非卷積網,例如Le等人[20]的網絡,缺乏這種能力。)

此外,盡管生成的圖等效于在特定輸入塊上對原始網絡的評估,但在這些塊的重疊區域上進行了高額攤銷。例如,雖然AlexNet花費1.2毫秒(在典型的GPU上)來產生 227×227 圖像的分類分數,但是全卷積網絡需要22毫秒才能從500×500圖像中生成10×10的輸出網格,比現在的方法快5倍以上。

這些卷積模型的空間輸出圖使它們成為語義分割等密集問題的自然選擇。由于每個輸出單元都有可用的Ground Truth,前向和后向傳遞都很簡單,并且都利用了卷積的固有計算效率(和主動優化)。AlexNet示例的相應后向時間對于單個圖像是2.4ms,對于完全卷積10×10輸出映射是37ms,導致類似于前向傳遞的加速。

盡管我們將分類網絡重新解釋為完全卷積,可以得到任何大小的輸入的輸出圖,但輸出維度通常通過二次取樣來減少。分類網絡子采樣以保持過濾器較小并且計算要求合理。這使這些網絡的完全卷積版本的輸出變得粗糙,將其從輸入的大小減少到等于輸出單元的感受野的像素跨度的因子。

3.2. Shift-and-stitch is filter rarefaction

Dense predictions can be obtained from coarse outputs by stitching together output from shifted versions of the input. If the output is downsampled by a factor of fff, shift the input xxx pixels to the right and yyy pixels down, once for every (xxx, yyy) s.t. 0 ≤xxx, yyy < fff. Process each of these f2f^2f2inputs, and interlace the outputs so that the predictions correspond to the pixels at the centers of their receptive fields.

Although performing this transformation na¨ ?vely increases the cost by a factor of f2f^2f2, there is a well-known trick for efficiently producing identical results [11, 29] known to the wavelet community as the à trous algorithm [25]. Consider a layer (convolution or pooling) with input stride s, and a subsequent convolution layer with filter weights fijf_{ij}fij?(eliding the irrelevant feature dimensions). Setting the lower layer’s input stride to 1 upsamples its output by a factor of sss. However, convolving the original filter with the upsampled output does not produce the same result as shift-and-stitch, because the original filter only sees a reduced portion of its (now upsampled) input. To reproduce the trick, rarefy the filter by enlarging it as
fij′={fi/s,j/s,ifsdividesbothiandj;0,otherwise,f'_{ij} = \begin{cases} f_{i/s,j/s}, & if s\ divides\ both\ i\ and\ j; \\ 0, & otherwise, \end{cases} fij?={fi/s,j/s?,0,?ifs?divides?both?i?and?j;otherwise,?
(with iii and jjj zero-based). Reproducing the full net output of the trick involves repeating this filter enlargement layerby-layer until all subsampling is removed. (In practice, this can be done efficiently by processing subsampled versions of the upsampled input.)

Decreasingsubsamplingwithinanetisatradeoff: thefilters see finer information, but have smaller receptive fields and take longer to compute. The shift-and-stitch trick is another kind of tradeoff: the output is denser without decreasing the receptive field sizes of the filters, but the filters are prohibited from accessing information at a finer scale than their original design.

Although we have done preliminary experiments with this trick, we do not use it in our model. We find learning through upsampling, as described in the next section, to be more effective and efficient, especially when combined with the skip layer fusion described later on.

3.2 移位和拼接是過濾器稀疏

通過輸入的不同版本的輸出拼接在一起,可以從粗糙的輸出中獲得密集預測。如果輸出被fff因子下采樣,對于每個(xxx, yyy) ,輸入向右移xxx個像素,向下移yyy個像素(左上填充),s.t. 0 ≤xxx, yyy < fff

盡管執行這種變換會很自然地使成本增加f2f^2f2倍,但有一個眾所周知的技巧可以有效地產生相同的結果[11,29],小波界稱之為à trous算法[25]。考慮一個具有輸入步幅sss的層(卷積或池化),以及隨后的具有濾波器權重fijf_{ij}fij?的卷積層(省略不相關的特征尺寸)。將較低層的輸入步幅設置為1會將其輸出向上采樣一個系數sss。但是,將原始濾波器與向上采樣的輸出進行卷積不會產生與移位拼接相同的結果,因為原始濾波器只看到其(現在向上采樣的)輸入的減少部分。要重現該技巧的話,請將過濾器放大為
fij′={fi/s,j/s,ifsdividesbothiandj;0,otherwise,f'_{ij} = \begin{cases} f_{i/s,j/s}, & if s\ divides\ both\ i\ and\ j; \\ 0, & otherwise, \end{cases} fij?={fi/s,j/s?,0,?ifs?divides?both?i?and?j;otherwise,?
(其中iiijjj從零開始)。再現技巧的完全網絡輸出涉及逐層重復放大此濾波器,直到刪除所有子采樣為止。 (實際上,可以通過處理上采樣輸入的子采樣版本來有效地完成此操作。)

減少網絡內的二次采樣是一個權衡:過濾器看到更精細的信息,但是感受野更小,計算時間更長。移位和拼接技巧是另一種權衡:在不減小濾波器感受野大小的情況下,輸出更密集,但是濾波器被禁止以比其原始設計更精細的尺度訪問信息。

雖然我們已經用這個技巧做了初步的實驗,但是我們沒有在我們的模型中使用它。我們發現通過上采樣進行學習(如下一節所述)更加有效和高效,尤其是與后面描述的跳躍層融合相結合時。

3.3.Upsampling is backwards strided convolution

Another way to connect coarse outputs to dense pixels is interpolation. For instance, simple bilinear interpolation computes each output yijy_{ij}yij?from the nearest four inputs by a linear map that depends only on the relative positions of the input and output cells.

In a sense, upsampling with factor fff is convolution with a fractional input stride of 1/f1/f1/f. So long as fff is integral, a natural way to upsample is therefore backwards convolution (sometimes called deconvolution) with an output stride of fff. Such an operation is trivial to implement, since it simply reverses the forward and backward passes of convolution. Thus upsampling is performed in-network for end-to-end learning by backpropagation from the pixelwise loss.

Note that the deconvolution filter in such a layer need not be fixed (e.g., to bilinear upsampling), but can be learned. A stack of deconvolution layers and activation functions can even learn a nonlinear upsampling.

In our experiments, we find that in-network upsampling is fast and effective for learning dense prediction. Our best segmentation architecture uses these layers to learn to upsample for refined prediction in Section 4.2.

3.3. 上采樣是反向跨步的卷積

將粗糙輸出連接到密集像素的另一種方法是插值。例如,簡單的雙線性插值通過一個只依賴于輸入和輸出單元的相對位置的線性映射,從最近的四個輸入計算每個輸出yijy_{ij}yij?

從某種意義上講,使用因子fff進行上采樣是對輸入步長為1/f1/f1/f的卷積。只要fff是整數的,那么向上采樣的自然方法就是輸出步長為fff的反向卷積(有時稱為反褶積)。這種操作實現起來很簡單,因為它只是反轉卷積的前進和后退。因此,在網絡中進行上采樣可以通過像素損失的反向傳播進行端到端學習。

注意,這種層中的反卷積濾波器不需要固定(例如,對于雙線性上采樣),而是可以學習的。反卷積層和激活函數的疊加甚至可以學習非線性上采樣。

在我們的實驗中,我們發現網絡內上采樣對于學習密集預測是快速有效的。在第4.2節中,我們的最佳分割架構使用這些層來學習如何對精確預測進行上采樣。

3.4.Patchwise training is loss sampling

In stochastic optimization, gradient computation is driven by the training distribution. Both patchwise training and fully convolutional training can be made to produce any distribution, although their relative computational efficiency depends on overlap and minibatch size. Whole image fully convolutional training is identical to patchwise training where each batch consists of all the receptive fields of the units below the loss for an image (or collection of images). While this is more efficient than uniform sampling of patches, it reduces the number of possible batches. However, random selection of patches within an image may be recovered simply. Restricting the loss to a randomly sampled subset of its spatial terms (or, equivalently applying a DropConnect mask [36] between the output and the loss) excludes patches from the gradient computation.

If the kept patches still have significant overlap, fully convolutional computation will still speed up training. If gradients are accumulated over multiple backward passes, batches can include patches from several images.2

Sampling in patchwise training can correct class imbalance [27, 7, 2] and mitigate the spatial correlation of dense patches [28, 15]. In fully convolutional training, class balance can also be achieved by weighting the loss, and loss sampling can be used to address spatial correlation.

We explore training with sampling in Section 4.3, and do not find that it yields faster or better convergence for dense prediction. Whole image training is effective and efficient.

3.4. 逐塊訓練是采樣損失

在隨機優化中,梯度計算由訓練分布驅動。逐塊訓練和全卷積訓練都可以產生任何分布,盡管它們的相對計算效率取決于重疊和小批量大小。整個圖像完全卷積訓練與逐塊訓練相同,其中每一批都包含低于圖像(或圖像集合)損失的單元的所有感受野。雖然這比批次的均勻采樣更有效,但它減少了可能的批次數量。然而隨機選擇一幅圖片中patches可以簡單地復現。將損失限制為其空間項的隨機采樣子集(或者,等效地在輸出和損失之間應用DropConnect掩碼[36]),將patches排除在梯度計算之外。

patch”, 指一個二維圖片中的其中一個小塊, 即一張二維圖像中有很多個patch. 正如在神經網絡的卷積計算中, 圖像并不是一整塊圖像直接同卷積核進行運算, 而是被分成了很多很多個patch分別同卷積核進行卷積運算, 這些patch的大小取決于卷積核的size. 卷積核每次只查看一個patch, 然后移動到另一個patch, 直到圖像分成的所有patch都參與完運算. 因為找不到合適的術語,暫不翻譯這個詞語

如果保留的patches仍然有明顯的重疊,全卷積計算仍將加速訓練。如果梯度是通過多次向后傳播累積的,批次可以包括來自多個圖像的patches2^22

在逐塊訓練中采樣可以糾正類不平衡[27,7,2]并減輕密集patches的空間相關性[28,15]。在全卷積訓練中,也可以通過加權損失來實現類平衡,并且可以使用損失采樣來解決空間相關性。

我們在第4.3節中探討了抽樣訓練,但沒有發現它對密集預測產生更快或更好的收斂。整體形象訓練是有效和高效的。

4.Segmentation Architecture

We cast ILSVRC classifiers into FCNs and augment them for dense prediction with in-network upsamp-ling and a pixelwise loss. We train for segmentation by fine-tuning. Next, we add skips between layers to fuse coarse, semantic and local, appearance information. This skip architecture is learned end-to-end to refine the semantics and spatial precision of the output.

For this investigation, we train and validate on the PASCAL VOC 2011 segmentation challenge [6]. We train with a per-pixel multinomial logistic loss and validate with the standard metric of mean pixel inter-section over union, with the mean taken over all classes, including background. The training ignores pixels that are masked out (as ambiguous or difficult) in the ground truth.

4.分割架構

我們將ILSVRC分類器轉換成FCN網絡,并通過網絡內上采樣和像素級損失來增強它們以進行密集預測。我們通過微調進行分割訓練。接下來,我們在層與層之間添加跳躍結構來融合粗糙的、語義的和局部的外觀信息。這種跳躍結構是端到端學習的,以優化輸出的語義和空間精度。

在本次調查中,我們在PASCAL VOC 2011分割挑戰上進行了訓練和驗證[6]。我們使用每個像素的多項式邏輯損失進行訓練,并通過聯合上的平均像素交集的標準度量進行驗證,其中包括所有類的平均值,包括背景。訓練忽略了在ground truth中被掩蓋(如模糊或困難)的像素。

4.1. From classifier to dense FCN

We begin by convolutionalizing proven classification architectures as in Section 3. We consider the AlexNet architecture that won ILSVRC12, as well as the VGG nets and the GoogLeNet which did exceptionally well in ILSVRC14. We pick the VGG 16-layer net, which we found to be equivalent to the 19-layer net on this task. For GoogLeNet, we use only the final loss layer, and improve performance by discarding the final average pooling layer. We decapitate each net by discarding the final classifier layer, and convert all fully connected layers to convolutions. We append a 1×11\times 11×1 convolution with channel dimension 21 to predict scores for each of the PASCAL classes (including background) at each of the coarse output locations, followed by a (backward) convolution layer to bilinearly upsample the coarse outputs to pixelwise outputs as described in Section 3.3. Table 1 compares the preliminary validation results along with the basic characteristics of each net. We report the best results achieved after convergence at a fixed learning rate (at least 175 epochs).

Fine-tuning from classification to segmentation gives reasonable predictions from each net. Even the worst model achieved ~75 percent of the previous best performance.FCN-VGG16 already appears to be state-of-the-art at 56.0 mean IU on val, compared to 52.6 on test [15]. Training on extra data raises FCN-VGG16 to 59.4 mean IU and FCN-AlexNet to 48.0 mean IU on a subset of val7. Despite similar classification accuracy, our implementation of GoogLeNet did not match the VGG16 segmentation result.

4.1 從分類器到密集的FCN

首先,如第3節所述,對經過驗證的分類體系進行卷積。我們考慮贏得ILSVRC12的AlexNet體系結構以及在ILSVRC14中表現出色的VGG網絡和GoogLeNet。我們選擇了VGG 16層網絡,我們發現它的效果相當于此任務上的19層網絡。對于GoogLeNet,我們僅使用最終的損失層,并通過舍棄最終的平均池化層來提高性能。我們通過舍棄最終的分類器層來使截取每個網絡,并將所有全連接層轉換為卷積。我們附加一個具有21通道的1×11\times 11×1 卷積,以預測每個粗略輸出位置處每個PASCAL類(包括背景)的分數,然后是一個反卷積層,粗略輸出上采樣到像素密集輸出,如第3.3節所述。表1比較了初步驗證結果以及每個網絡的基本特征。我們報告了以固定的學習速率(至少175 epochs)收斂后獲得的最佳結果。

從分類到分割的微調可為每個網絡提供合理的預測。即使是最糟糕的模型也能達到以前最佳性能的75%。 分割匹配的VGG網絡(FCN-VGG16)已經看起來是最先進的,在val上為56.0平均IU,而在測試中為52.6 [16]。對額外數據的訓練能將val的子集上將FCN-VGG16的平均IU提高到59.4,FCN-AlexNet的平均IU提高到48.0。盡管分類準確性相似,但我們對GoogLeNet的實現沒有達到VGG16分割結果的效果。

4.2 Combining What and Where

We define a new fully convolutional net for segmentation that combines layers of the feature hierarchy and refines the spatial precision of the output. See Figure. 3.

While fully convolutionalized classifiers fine-tuned to semantic segmentation as shown in Section 4.1, and even score highly on the standard metrics, their output is dissatisfyingly coarse (see Fig. 4). The 32 pixel stride at the final prediction layer limits the scale of detail in the upsampled output.

We address this by adding skips [1] that combine the final prediction layer with lower layers with finer strides. This turns a line topology into a DAG, with edges that skip ahead from lower layers to higher ones (Figure 3). As they see fewer pixels, the finer scale predictions should need fewer layers, so it makes sense to make them from shallower net outputs. Combining fine layers and coarse layers lets the model make local predictions that respect global structure. By analogy to the jet of Koenderick and van Doorn [19], we call our nonlinear feature hierarchy the deep jet.

We first divide the output stride in half by predicting from a 16 pixel stride layer. We add a 1 × 1 convolution layer on top of pool4 to produce additional class predictions. We fuse this output with the predictions computed on top of conv7 (convolutionalized fc7) at stride 32 by adding a 2× upsampling layer and summing6both predictions (see Figure 3). We initialize the 2× upsampling to bilinear inter-polation, but allow the parameters to be learned as described in Section 3.3. Finally, the stride 16 predictions are upsampled back to the image. We call this net FCN-16s. FCN-16s is learned end-to-end, initialized with the parameters of the last, coarser net, which we now call FCN-32s. The new parameters acting on pool4 are zeroinitialized so that the net starts with unmodified predictions. The learning rate is decreased by a factor of 100.

Learning this skip net improves performance on the validation set by 3.0 mean IU to 62.4. Figure 4 shows improvement in the fine structure of the output. We compared this fusion with learning only from the pool4 layer, which resulted in poor performance, and simply decreasing the learning rate without adding the skip, which resulted in an insignificant performance improvement without improving the quality of the output.

We continue in this fashion by fusing predictions from pool3 with a 2× upsampling of predictions fused from pool4 and conv7, building the net FCN-8s. We obtain a minor additional improvement to 62.7 mean IU, and find a slight improvement in the smoothness and detail of our output. At this point our fusion improvements have met diminishing returns, both with respect to the IU metric which empha-sizes large-scale correctness, and also in terms of the improvement visible e.g. in Figure 4, so we do not continue fusing even lower layers.

Refinement by other means Decreasing the stride of pooling layers is the most straightforward way to obtain finer predictions. However, doing so is problematic for our VGG16-based net. Setting the pool5 stride to 1 requires our convolutionalized fc6 to have kernel size 14 × 14 to maintain its receptive field size. In addition to their computational cost, we had difficulty learning such large filters. We attem-pted to re-architect the layers above pool5 with smaller filters, but did not achieve comparable perfor-mance; one possible explanation is that the ILSVRC initialization of the upper layers is important.

Anotherwaytoobtainfinerpredictionsistousetheshiftand-stitch trick described in Section 3.2. In limited experiments, we found the cost to improvement ratio from this method to be worse than layer fusion.

4.3結合什么和在哪里結合

我們定義了一個用于分割的新的全卷積網絡,它結合了特征層次結構的各層,并細化了輸出的空間精度。參見圖3。

盡管完全卷積分類器可以按照如4.1中說明進行微調,甚至這些基礎網絡在標準指標上得分很高,但它們的輸出卻令人不盡如人意(見圖4)。最終預測層的32像素步幅限制了上采樣輸出中的細節尺度。

我們通過添加跳躍結構[51]來解決此問題,該跳躍結構融合了最終預測層與具有更加精細步幅的較低層。這將線拓撲變成DAG,其邊緣從較低層跳到叫高層(圖3)。因為他們看到的像素更少,更精細的尺度預測應該需要更少的層,因此從較淺的網絡輸出是有意義的。結合精細層和粗糙層可以讓模型做出符合全局結構的局部預測。與肯德爾里克和范·多恩[19]的覆蓋相似 [19],我們將非線性特征層次稱為深覆蓋。
我們首先通過從16像素步幅層進行預測,將輸出步幅分成兩半。我們在pool4的頂部添加了1 × 1卷積層,以產生額外的類別預測。我們通過增加一個2倍的上采樣層并將兩個預測相加,將此輸出與在步幅為32的conv7(卷積fc7)上計算的預測相融合(見圖3)。我們將2倍上采樣初始化為雙線性插值,但允許按照第3.3節所述學習參數。最后,將步幅16預測上采樣回到圖像。我們稱這個網絡為FCN-16。FCN-16s是端到端學習的,用最后一個較粗網絡的參數初始化,我們現在稱之為FCN-32s。作用于pool4的新參數被初始化為零,因此網絡從未修改的預測開始。學習率降低了100倍。

學習這個skip網絡可以將驗證集上的性能提高平均IU3.0到62.4。圖4顯示了輸出精細結構的改進。我們將這種融合僅與來自pool4層的學習進行了比較,這導致性能較差,并且僅在不添加跳過的情況下降低了學習速度,從而在不提高輸出質量的情況下導致了微不足道的性能改進。

我們繼續以這種方式將pool3的預測與融合了pool4和conv7的2x上采樣預測相融合,建立網絡FCN-8s。我們獲得了一個小的額外改進,平均IU達到62.7,并且我們的輸出的平滑度和細節略有改善。至此,我們的融合改進遇到了收益遞減的問題,無論是在強調大規模正確性的IU度量方面,還是在可見的改進方面,例如,所以在圖4中,我們不會繼續融合更低的層。

通過其他方式進行細化 減少池化層的步幅是獲得更精細預測的最直接方法。但是,這樣做對我們基于VGG16的網絡來說是個問題。將pool5層設置為具有步幅1要求我們的卷積化fc6具有14×14的內核大小以便維持其感受野大小。除了計算成本之外,我們還難以學習如此大的過濾器。我們嘗試用較小的過濾器重新構建pool5之上的層,但是沒有成功實現相當的性能;一種可能的解釋是,從上層的ILSVRC初始化很重要。
ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 是近年來機器視覺領域最受追捧也是最具權威的學術競賽之一,代表了圖像領域的最高水平。
獲得更好預測的另一種方法是使用3.2節中描述的shift-and-stitch技巧。在有限的實驗中,我們發現這種方法的改進成本比層融合更差。

4.3 Experimental Framework

Optimization We train by SGD with momentum. We use a minibatch size of 20 images and fixed learning rates of 10?310^{-3}10?3, 10?410^{-4}10?4, and 5?55^{-5}5?5for FCN-AlexNet, FCN-VGG16, and FCN-GoogLeNet, respectively, chosen by line search. We use momentum 0.9, weight decay of 5?45^{-4}5?4or 2?42^{-4}2?4, and doubled learning rate for biases, although we found training to be sensitive to the learning rate alone. We zero-initialize the class scoring layer, as random initialization yielded neither better performance nor faster convergence. Dropout was included where used in the original classifier nets.
Fine-tuning We fine-tune all layers by backpropagation through the whole net. Fine-tuning the output classifier alone yields only 70% of the full finetuning performance as compared in Table 2. Training from scratch is not feasible considering the time required to learn the base classification nets. (Note that the VGG net is trained in stages, while we initialize from the full 16-layer version.) Fine-tuning takes three days on a single GPU for the coarse FCN-32s version, and about one day each to upgrade to the FCN-16s and FCN-8s versions.

More Training Data The PASCAL VOC 2011 segmentation training set labels 1112 images. Hariharan et al. [14] collected labels for a larger set of 8498 PASCAL training images, which was used to train the previous state-of-theart system, SDS [15]. This training data improves the FCNVGG16 validation score7by 3.4 points to 59.4 mean IU.

Patch Sampling As explained in Section 3.4, our full image training effectively batches each image into a regular grid of large, overlapping patches. By contrast, prior work randomly samples patches over a full dataset [27, 2, 7, 28, 9], potentially resulting in higher variance batches that may accelerate convergence [22]. We study this tradeoff by spatially sampling the loss in the manner described earlier, making an independent choice to ignore each final layer cell with some probability 1 ? p. To avoid changing the effective batch size, we simultaneously increase the number of images per batch by a factor 1/p. Note that due to the efficiency of convolution, this form of rejection sampling is still faster than patchwise training for large enough values of p (e.g., at least for p > 0.2 according to the num-bers in Section 3.1). Figure 5 shows the effect of this form of sampling on convergence. We find that sampling does not have a significant effect on convergence rate compared to whole image training, but takes significantly more time due to the larger number of images that need to be consi-dered per batch. We therefore choose unsampled, whole image training in our other experiments.

Class Balancing Fully convolutional training can balance classes by weighting or sampling the loss. Although our labels are mildly unbalanced (about 3/4 are background), we find class balancing unnecessary.

Dense Prediction The scores are upsampled to the input dimensions by deconvolution layers within the net. Final layer deconvolutional filters are fixed to bilinear interpolation, while intermediate upsampling layers are initialized to bilinear upsampling, and then learned.

Augmentation We tried augmenting the training data by randomly mirroring and “jittering” the images by translating them up to 32 pixels (the coarsest scale of prediction) in each direction. This yielded no noticeable improvement.

Implementation All models are trained and tested with Caffe [18] on a single NVIDIA Tesla K40c. Our models and code are publicly available at
http://fcn.berkeleyvision.org.

4.3實驗框架

優化 我們用帶有動量的隨機梯度下降算法(SGD)進行訓練。我們使用的mini-batch大小為20張圖片,和對于FCN-AlexNet, FCN-VGG16和FCN-GoogleNet使用由線性搜索得到的固定的學習率,分別為10?310^{-3}10?3, 10?410^{-4}10?4, 和 5?55^{-5}5?5。我們使用動量為0.9,權重衰減為5?45^{-4}5?42?42^{-4}2?4,并且將對偏差的學習率增加了一倍,雖然我們發現訓練僅對學習速率敏感。我們對類評分層進行零初始化,因為隨機初始化既不能產生更好的性能,也不能更快的收斂。Droupout被包含在原始分類器網絡中使用。
微調 我們通過整個網絡的反向傳播來微調所有層。如表2所示,單獨微調輸出分類器僅是完全微調性能的70%。考慮到學習基礎分類網所需的時間,從頭開始訓練是不可行的。 (請注意,VGG網絡是分階段訓練的,而我們是從完整的16層版本初始化的。)對于粗FCN-32s版本,單個GPU上的微調需要三天時間,而每個版本大約需要一天時間才能升級到FCN-16s和FCN-8s版本。

更多的訓練數據 PASCAL VOC 2011分割訓練集標簽1112張圖像。Hariharan等人[14]收集了一組更大的8498 PASCAL訓練圖像的標簽,用于訓練之前的先進系統SDS[15]。這一訓練數據提高了FCNVGG16驗證集的分數3.4分,達到平均59.4 IU。

Patch采樣 如第3.4節所述,我們的整個圖像訓練有效地將每個圖像分批成一個規則的大重疊網格塊。相比之下,先前的工作在整個數據集上隨機采樣patches,可能導致更高的方差批次,從而可能加速收斂。我們通過以前面描述的方式對損失進行空間采樣來研究這種權衡,并做出獨立選擇,以1-p的概率忽略每個最終層單元。 為了避免更改有效的批次大小,我們同時將每批次的圖像數量增加了1/p。請注意,由于卷積效率高,對于足夠大的p值(例如,至少根據第3.1節中的p> 0.2而言),這種形式的拒絕采樣仍比逐塊訓練更快。圖5顯示了這種采樣形式對收斂的影響。我們發現,與整個圖像訓練相比,采??樣對收斂速度沒有顯著影響,但是由于每批需要考慮的圖像數量更多,因此采樣花費的時間明顯更多。因此,我們在其他實驗中選擇未采樣的整體圖像訓練。
解釋了為什么全圖像訓練,而沒有選擇采樣的原因
類別平衡 完全卷積訓練可以通過加權或采樣損失來平衡類別。雖然我們的標簽略有不平衡(大約3 / 4為背景),但我們發現類平衡是不必要的。

密集預測。 分數通過網絡中的反卷積層上采樣到輸入維度。最終層的反卷積濾波器固定為雙線性插值,而中間的上采樣層則初始化為雙線性插值,然后學習。

增強 我們嘗試通過隨機鏡像和“抖動”圖像??來增強訓練數據,方法是將圖像在每個方向上最多轉換為32個像素(最粗的預測比例)。這沒有產生明顯的改善。

實現 所有模型都在單個NVIDIA Titan X上使用Caffe [54]進行了訓練和測試。我們的模型和代碼可在http://fcn.berkeleyvision.org上公開獲得。

5 Results

We test our FCN on semantic segmentation and scene parsing, exploring PASCAL VOC, NYUDv2, and SIFT Flow. Although these tasks have historically distinguished between objects and regions, we treat both uniformly as pixel prediction. We evaluate our FCN skip architecture on each of these datasets, and then extend it to multi-modal input for NYUDv2 and multi-task prediction for the semantic and geometric labels of SIFT Flow.

Metrics We report four metrics from common semantic segmentation and scene parsing evaluations that are variations on pixel accuracy and region intersection over union (IU). Let nijn_{ij}nij?be the number of pixels of class iii predicted to belong to class jjj, where there are ncln_{cl}ncl? different classes, and let ti=∑jnijt_i=\sum _{j}n^{_{ij}}ti?=j?nij? be the total number of pixels of class iii. We compute:

  • pixel accuracy: ∑inii/∑iti\sum _{i}n^{_{ii}}/\sum _{i}t_{i}i?nii?/i?ti?
  • mean accuraccy:(1/ncl)∑inii/ti\left ( 1/n_{cl} \right )\sum_{i}n^{_{ii}}/t{_{i}}(1/ncl?)i?nii?/ti?
  • mean IU:(1/ncl)∑inii/(ti+∑jnji?nii)\left ( 1/n_{cl} \right )\sum_{i}n^{_{ii}}/\left ( t{_{i}}+\sum _{j}n_{ji}-n_{ii} \right )(1/ncl?)i?nii?/(ti?+j?nji??nii?)
  • frequency weighted IU:(∑ktk)?1∑itinii/(ti+∑jnji?nii)\left ( \sum _{k}t_{k} \right )^{-1}\sum _{i}t_{i}n_{ii}/\left ( t_{i}+\sum _{j}n_{ji}-n_{ii} \right )(k?tk?)?1i?ti?nii?/(ti?+j?nji??nii?)

PASCAL VOC. Table 4 gives the performance of our FCN-8s on the test sets of PASCAL VOC 2011 and 2012, and compares it to the previous best, SDS [14], and the well-known R-CNN [5]. We achieve the best results on mean IU by 30 percent relative. Inference time is reduced 114×114\times114×(convnet only, ignoring proposals and refinement) or 286×286\times286× (overall). Fig. 6 compares the outputs of FCN-8s and SDS.

NYUDv2. is an RGB-D dataset collected using the Microsoft Kinect. It has 1,449 RGB-D images, with pixelwise labels that have been coalesced into a 40 class semantic segmentation task by Gupta et al. We report results on the standard split of 795 training images and 654 testing images.(Note: all model selection is performed on PASCAL 2011 val.)Table 4 gives the performance of several net variations. First we train our unmodified coarse model (FCN-32s) on RGB images. To add depth information, we train on a model upgraded to take four-channel RGB-D input (early fusion). This provides little benefit, perhaps due to similar number of parameters or the difficulty of propagating meaningful gradients all the way through the model. Following the success of Gupta et al[13], we try the three-dimensional HHA encoding of depth , training nets on just this information,as well as a “late fusion” of RGB and HHA where the predictions from both nets are summed at the final layer, and the resulting two-stream net is learned end-to-end. Finally we upgrade this late fusion net to a 16-stride version.

SIFT Flow is a dataset of 2,688 images with pixel labels for 33 semantic classes (“bridge”, “mountain”, “sun”), as well as three geometric classes (“horizontal”, “vertical”, and “sky”). An FCN can naturally learn a joint representation that simultaneously predicts both types of labels. We learn a two-headed version of FCN-16s with semantic and geometric prediction layers and losses.The learned model performs as well on both tasks as two independently trained models, while learning and inference are essentially as fast as each independent model by itself. The results in Table 5, computed on the standard split into 2,488 training and 200 test images,9show state-of-the-art performance on both tasks.

5 結果

我們測試了我們的FCN在語義分割和場景解析,探索PASCAL VOC,NYUDv2,和SIFT Flow。 雖然這些任務歷來在對象和區域之間有所區別,但我們將兩者均視為像素預測。 我們在每個數據集上評估FCN跳躍體系結構,然后將其擴展到NYUDv2的多模式輸入,以及SIFT Flow的語義和幾何標簽的多任務預測。
指標。 我們從常見的語義分割和場景解析評估報告了四個指標,這些指標是像素精度和聯合區域交叉(IU)的變化。設nijn_{ij}nij?為類iii預測屬于類jjj的像素個數,其中有ncln_{cl}ncl?不同的類,設ti=∑jnijt_i=\sum _{j}n^{_{ij}}ti?=j?nij?為類i的總像素個數,我們計算:

  • 像素精度: ∑inii/∑iti\sum _{i}n^{_{ii}}/\sum _{i}t_{i}i?nii?/i?ti?
  • 平均準確度:(1/ncl)∑inii/ti\left ( 1/n_{cl} \right )\sum_{i}n^{_{ii}}/t{_{i}}(1/ncl?)i?nii?/ti?
  • 平均IU:(1/ncl)∑inii/(ti+∑jnji?nii)\left ( 1/n_{cl} \right )\sum_{i}n^{_{ii}}/\left ( t{_{i}}+\sum _{j}n_{ji}-n_{ii} \right )(1/ncl?)i?nii?/(ti?+j?nji??nii?)
  • 頻率加權IU:(∑ktk)?1∑itinii/(ti+∑jnji?nii)\left ( \sum _{k}t_{k} \right )^{-1}\sum _{i}t_{i}n_{ii}/\left ( t_{i}+\sum _{j}n_{ji}-n_{ii} \right )(k?tk?)?1i?ti?nii?/(ti?+j?nji??nii?)
    PASCAL VOC. 表3給出了FCN-8在PASCAL VOC 2011和2012測試集上的性能,并將其與之前的最先進的SDS [15]和著名的R-CNN[10] 進行了比較。我們在平均IU上取得了20%的相對優勢。推理時間減少了114倍(僅限于convnet,忽略提案和完善內容)或286倍(總體)。

NYUDv2. 是使用Microsoft Kinect收集的RGB-D數據集。它具有1449個RGB-D圖像,帶有按像素劃分的標簽,由Gupta等人合并為40類語義分割任務。我們報告了795張訓練圖像和654張測試圖像的標準分割結果。表4給出了幾種凈變化的性能。首先,我們在RGB圖像上訓練未修改的粗糙模型(FCN-32s)。為了增加深度信息,我們訓練了一個升級后的模型以采用四通道RGB-D輸入(早期融合)。這可能帶來的好處很小,這可能是由于參數數量相似或難以通過網絡傳播有意義的梯度所致。繼成功Gupta等。我們嘗試對深度進行三維HHA編碼,以及后期融合的RGB和HHA都是預測在最終層相加,,并得出結果兩流網絡是端到端學習的。最后,我們將這個后期的融合網絡升級為16步版本。

SIFT流. 是2688個圖像的數據集,帶有33個語義類別(“橋”,“山”,“太陽”)以及三個幾何類別(“水平”,“垂直”和“天空”)的像素標簽。 FCN可以自然地學習可以同時預測兩種標簽類型的聯合表示。我們學習了帶有語義和幾何預測層以及損失的FCN-16s的兩頭版本。該網絡在兩個任務上的表現都好于兩個獨立訓練的網絡,而學習和推理基本上與每個獨立的網絡一樣快。表5中的結果按標準劃分為2488個訓練圖像和200張測試圖像,在兩個任務上均顯示出更好的性能。

6 Conclusion

Fully convolutional networks are a rich class of models, of which modern classification convnets are a special case. Recognizing this, extending these classification nets to segmentation, and improving the architecture with multi-resolution layer combinations dramatically improves the state-of-the-art, while simultaneously simplifying and speeding up learning and inference.

Acknowledgements This work was supported in part by DARPA ’s MSEE and SMISC programs, NSF awards IIS1427425, IIS-1212798, IIS-1116411, and the NSF GRFP , Toyota, and the Berkeley Vision and Learning Center. We gratefully acknowledge NVIDIA for GPU donation. We thank Bharath Hariharan and Saurabh Gupta for their advice and dataset tools. We thank Sergio Guadarrama for reproducing GoogLeNet in Caffe. We thank Jitendra Malik for his helpful comments. Thanks to Wei Liu for pointing out an issue wth our SIFT Flow mean IU computation and an error in our frequency weighted mean IU formula.

6 分析

完全卷積網絡是一類豐富的模型,現代分類卷積網絡是其中的特例。認識到這一點,擴展了這些分類網絡進行分割,并通過多分辨率圖層組合改進體系結構可極大地改善最新技術,同時簡化并加快學習和推理速度。
致謝 這項工作得到了DARPA的MSEE和SMISC計劃的部分支持,NSF授予IIS1427425,IIS-1212798,IIS-1116411和NSF GRFP,Toyota以及Berkeley視覺和學習中心。我們非常感謝NVIDIA為GPU的捐贈。我們感謝Bharath Hariharan和Saurabh Gupta的建議和數據集工具。感謝Sergio Guadarrama在Caffe中復制GoogLeNet。我們感謝Jitendra Malik的有益評論。感謝Liu Wei指出了我們的SIFT Flow平均IU計算中的一個問題以及我們的頻率加權平均IU公式中的一個錯誤。

7.參考文獻

References

在這里我們要注意的是FCN的缺點:
是得到的結果還是不夠精細。進行8倍上采樣雖然比32倍的效果好了很多,但是上采樣的結果還是比較模糊和平滑,對圖像中的細節不敏感。
是對各個像素進行分類,沒有充分考慮像素與像素之間的關系。忽略了在通常的基于像素分類的分割方法中使用的空間規整(spatial regularization)步驟,缺乏空間一致性.

總結

以上是生活随笔為你收集整理的Fully Convolutional Networks for Semantic Segmentation (FCN)论文翻译和理解的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

蜜臀av在线观看 在线欧美精品一区二区三区 | 国产成人一区二区三区在线观看 | 精品无人区无码乱码毛片国产 | 国产人妻人伦精品1国产丝袜 | 亚洲综合另类小说色区 | 男人扒开女人内裤强吻桶进去 | 亚洲区欧美区综合区自拍区 | 中文无码精品a∨在线观看不卡 | 中文字幕色婷婷在线视频 | 久久久久成人精品免费播放动漫 | 无码一区二区三区在线观看 | 精品日本一区二区三区在线观看 | 麻豆果冻传媒2021精品传媒一区下载 | 97精品人妻一区二区三区香蕉 | 极品尤物被啪到呻吟喷水 | 巨爆乳无码视频在线观看 | 欧美激情内射喷水高潮 | 亚洲毛片av日韩av无码 | 在线视频网站www色 | 又大又紧又粉嫩18p少妇 | 国产无av码在线观看 | 久久婷婷五月综合色国产香蕉 | 中文字幕无码日韩欧毛 | 伊在人天堂亚洲香蕉精品区 | 在线观看免费人成视频 | 国产精品久久久久9999小说 | 无码国内精品人妻少妇 | 激情人妻另类人妻伦 | 欧美熟妇另类久久久久久多毛 | 牲欲强的熟妇农村老妇女 | 成人欧美一区二区三区黑人免费 | 国产性生交xxxxx无码 | 狠狠色噜噜狠狠狠7777奇米 | 国产9 9在线 | 中文 | 人妻夜夜爽天天爽三区 | 高潮喷水的毛片 | 亚洲色大成网站www国产 | 在线欧美精品一区二区三区 | 六十路熟妇乱子伦 | 一本久道久久综合狠狠爱 | 色综合久久久久综合一本到桃花网 | 波多野结衣av一区二区全免费观看 | 四虎永久在线精品免费网址 | 一区二区三区高清视频一 | 国产亚洲欧美日韩亚洲中文色 | 欧美国产日产一区二区 | 久久综合给合久久狠狠狠97色 | 成人精品视频一区二区三区尤物 | 国产无遮挡又黄又爽又色 | 丝袜人妻一区二区三区 | 亚洲色欲色欲欲www在线 | 亚洲精品欧美二区三区中文字幕 | 性生交大片免费看l | 精品无人国产偷自产在线 | 伊人久久大香线蕉亚洲 | 动漫av网站免费观看 | 国产精品久久国产精品99 | 高清无码午夜福利视频 | 老熟女重囗味hdxx69 | 双乳奶水饱满少妇呻吟 | 亚洲国产精品成人久久蜜臀 | 麻花豆传媒剧国产免费mv在线 | 欧美日本免费一区二区三区 | 亚洲一区二区三区在线观看网站 | 精品久久久久久亚洲精品 | 又湿又紧又大又爽a视频国产 | 国产精品亚洲专区无码不卡 | 亚洲乱码日产精品bd | 宝宝好涨水快流出来免费视频 | √8天堂资源地址中文在线 | 亚洲一区二区三区含羞草 | 亚洲一区二区三区播放 | 亚洲日韩av片在线观看 | 日本熟妇乱子伦xxxx | 动漫av网站免费观看 | 亚洲日韩av一区二区三区四区 | 国产手机在线αⅴ片无码观看 | 欧美日韩人成综合在线播放 | 鲁大师影院在线观看 | 东京热无码av男人的天堂 | 国产成人一区二区三区在线观看 | 一二三四在线观看免费视频 | 国产人妻久久精品二区三区老狼 | 久久久精品成人免费观看 | 国产疯狂伦交大片 | 日本乱人伦片中文三区 | 无码av最新清无码专区吞精 | 草草网站影院白丝内射 | 欧美国产日韩亚洲中文 | 国产97色在线 | 免 | 丰满岳乱妇在线观看中字无码 | 久久亚洲日韩精品一区二区三区 | 国产亚洲视频中文字幕97精品 | 国产精品久久久午夜夜伦鲁鲁 | 亚洲精品久久久久avwww潮水 | 久久亚洲精品中文字幕无男同 | 成人毛片一区二区 | 免费人成在线视频无码 | yw尤物av无码国产在线观看 | 内射白嫩少妇超碰 | 亚洲成a人片在线观看日本 | 无码播放一区二区三区 | 男女爱爱好爽视频免费看 | 欧美xxxx黑人又粗又长 | 亚洲精品综合一区二区三区在线 | 大乳丰满人妻中文字幕日本 | 黑人大群体交免费视频 | 国内老熟妇对白xxxxhd | 天堂а√在线地址中文在线 | 日本va欧美va欧美va精品 | 精品人妻av区 | 日日麻批免费40分钟无码 | 国产激情精品一区二区三区 | 国产口爆吞精在线视频 | 99久久99久久免费精品蜜桃 | 欧美精品免费观看二区 | 2020久久超碰国产精品最新 | 无码人妻久久一区二区三区不卡 | 午夜时刻免费入口 | 亚洲va欧美va天堂v国产综合 | 窝窝午夜理论片影院 | 两性色午夜视频免费播放 | 欧美熟妇另类久久久久久多毛 | 精品aⅴ一区二区三区 | 亚洲熟妇色xxxxx欧美老妇 | 日本高清一区免费中文视频 | 久久精品中文闷骚内射 | 丰满少妇弄高潮了www | 成人动漫在线观看 | 日产精品99久久久久久 | 国产又爽又猛又粗的视频a片 | 国产性生大片免费观看性 | 欧美国产日韩亚洲中文 | 国内精品人妻无码久久久影院 | 18无码粉嫩小泬无套在线观看 | 亚洲综合久久一区二区 | 午夜精品久久久久久久 | 国产口爆吞精在线视频 | 无码成人精品区在线观看 | 免费人成在线观看网站 | 99久久婷婷国产综合精品青草免费 | 麻豆国产丝袜白领秘书在线观看 | www国产亚洲精品久久网站 | 在线а√天堂中文官网 | 亚洲人成影院在线观看 | 真人与拘做受免费视频一 | 久久久精品456亚洲影院 | 亚洲国产精华液网站w | 久久久婷婷五月亚洲97号色 | 国产女主播喷水视频在线观看 | 在线播放无码字幕亚洲 | 国产97在线 | 亚洲 | 丰满岳乱妇在线观看中字无码 | 国产精品国产三级国产专播 | 日韩av无码中文无码电影 | 国产精品久久久久久无码 | 成人亚洲精品久久久久 | 性色欲情网站iwww九文堂 | 狠狠噜狠狠狠狠丁香五月 | 亚洲色大成网站www国产 | 亚洲色在线无码国产精品不卡 | 少妇久久久久久人妻无码 | 2020久久超碰国产精品最新 | 好爽又高潮了毛片免费下载 | 无码人妻丰满熟妇区五十路百度 | 久久久精品人妻久久影视 | 97久久超碰中文字幕 | 午夜无码区在线观看 | 亚洲日韩中文字幕在线播放 | 乱人伦人妻中文字幕无码久久网 | 亚洲欧洲日本无在线码 | 亚洲国产欧美日韩精品一区二区三区 | av无码不卡在线观看免费 | 久久久久成人精品免费播放动漫 | 激情综合激情五月俺也去 | 女人被爽到呻吟gif动态图视看 | 亚洲综合色区中文字幕 | 日日躁夜夜躁狠狠躁 | 最新国产麻豆aⅴ精品无码 | 天下第一社区视频www日本 | 久久综合香蕉国产蜜臀av | 国产69精品久久久久app下载 | 久久久亚洲欧洲日产国码αv | 日本熟妇乱子伦xxxx | 日本精品久久久久中文字幕 | 亚洲熟妇色xxxxx欧美老妇y | 国产明星裸体无码xxxx视频 | 亚洲人成网站免费播放 | 国产精品美女久久久网av | 午夜成人1000部免费视频 | 少妇无码一区二区二三区 | 天天摸天天透天天添 | 99久久精品日本一区二区免费 | 亚洲a无码综合a国产av中文 | 欧美午夜特黄aaaaaa片 | yw尤物av无码国产在线观看 | 国产精品资源一区二区 | 无码国产色欲xxxxx视频 | 亚洲精品国产精品乱码视色 | 国产精品久久久久7777 | 国精品人妻无码一区二区三区蜜柚 | 国产精品鲁鲁鲁 | 日日夜夜撸啊撸 | 亚洲精品一区二区三区在线观看 | 午夜时刻免费入口 | 亚洲欧美日韩综合久久久 | 久久久国产一区二区三区 | 中文字幕 人妻熟女 | 国产成人一区二区三区在线观看 | 麻豆md0077饥渴少妇 | 成人aaa片一区国产精品 | 无遮挡国产高潮视频免费观看 | 97久久国产亚洲精品超碰热 | 国产高潮视频在线观看 | 成人试看120秒体验区 | 亚洲 高清 成人 动漫 | 成人aaa片一区国产精品 | 国产亚洲视频中文字幕97精品 | 亚洲va中文字幕无码久久不卡 | 男女猛烈xx00免费视频试看 | 亚洲中文无码av永久不收费 | 露脸叫床粗话东北少妇 | 亚洲精品成人av在线 | 曰韩少妇内射免费播放 | 国产精品资源一区二区 | 成人女人看片免费视频放人 | 荫蒂被男人添的好舒服爽免费视频 | 成人动漫在线观看 | 日韩欧美群交p片內射中文 | 人人澡人摸人人添 | 日本丰满护士爆乳xxxx | 久久久久久九九精品久 | 亚洲人成影院在线无码按摩店 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲综合色区中文字幕 | 亚洲热妇无码av在线播放 | 又大又紧又粉嫩18p少妇 | 亚洲中文字幕乱码av波多ji | 免费看少妇作爱视频 | 欧美日韩综合一区二区三区 | 无码人妻精品一区二区三区不卡 | 久热国产vs视频在线观看 | 中文精品无码中文字幕无码专区 | 日韩精品久久久肉伦网站 | 日韩人妻无码一区二区三区久久99 | 国产精品亚洲а∨无码播放麻豆 | 久久这里只有精品视频9 | 国产精品久久久久影院嫩草 | 无码一区二区三区在线 | 国产无套内射久久久国产 | 国产av一区二区精品久久凹凸 | 亚洲欧美色中文字幕在线 | 国产无套粉嫩白浆在线 | 色综合久久久无码网中文 | 欧美 日韩 人妻 高清 中文 | 中文精品久久久久人妻不卡 | 亚洲综合无码久久精品综合 | 色 综合 欧美 亚洲 国产 | 久久精品女人天堂av免费观看 | 精品国产精品久久一区免费式 | 亚洲精品久久久久中文第一幕 | 无码人妻丰满熟妇区毛片18 | 丰满妇女强制高潮18xxxx | 中文字幕无码日韩欧毛 | 无码福利日韩神码福利片 | 白嫩日本少妇做爰 | 东京热男人av天堂 | 无码国产色欲xxxxx视频 | 麻豆人妻少妇精品无码专区 | 亚洲va中文字幕无码久久不卡 | 精品国产一区二区三区四区 | 成 人影片 免费观看 | 久久这里只有精品视频9 | 狠狠综合久久久久综合网 | 女人色极品影院 | 欧美人与牲动交xxxx | 亚洲日本一区二区三区在线 | 成人性做爰aaa片免费看不忠 | 亚洲中文字幕无码一久久区 | 蜜臀av无码人妻精品 | 国产人妻精品一区二区三区 | 欧美丰满少妇xxxx性 | 午夜熟女插插xx免费视频 | 偷窥村妇洗澡毛毛多 | 乌克兰少妇性做爰 | 色综合久久久无码网中文 | 久久97精品久久久久久久不卡 | 亚洲春色在线视频 | av人摸人人人澡人人超碰下载 | 亚洲高清偷拍一区二区三区 | 亚洲国产欧美日韩精品一区二区三区 | 真人与拘做受免费视频一 | 台湾无码一区二区 | 青春草在线视频免费观看 | 国产又爽又猛又粗的视频a片 | 岛国片人妻三上悠亚 | 夫妻免费无码v看片 | 亚洲综合另类小说色区 | 亚洲综合另类小说色区 | 国产av人人夜夜澡人人爽麻豆 | 日本xxxx色视频在线观看免费 | 久久zyz资源站无码中文动漫 | 激情内射日本一区二区三区 | 久久精品女人天堂av免费观看 | 天天摸天天透天天添 | 久久精品一区二区三区四区 | 免费网站看v片在线18禁无码 | 伦伦影院午夜理论片 | 国产无遮挡吃胸膜奶免费看 | 强开小婷嫩苞又嫩又紧视频 | 成人精品一区二区三区中文字幕 | 无码人妻精品一区二区三区下载 | 日本一卡2卡3卡四卡精品网站 | 国产成人无码区免费内射一片色欲 | 亚洲精品一区二区三区在线观看 | 一本色道久久综合亚洲精品不卡 | 亚洲毛片av日韩av无码 | 人妻少妇精品视频专区 | 国产真人无遮挡作爱免费视频 | 亚洲日本一区二区三区在线 | 中文字幕中文有码在线 | 狂野欧美性猛xxxx乱大交 | 国产亚洲欧美日韩亚洲中文色 | 成人无码视频在线观看网站 | 色老头在线一区二区三区 | 影音先锋中文字幕无码 | 国产激情无码一区二区app | 中文精品久久久久人妻不卡 | 免费男性肉肉影院 | 成人试看120秒体验区 | 国产精品亚洲lv粉色 | 亚洲中文字幕在线无码一区二区 | 国产亚洲日韩欧美另类第八页 | 欧美精品在线观看 | 蜜桃无码一区二区三区 | 亚洲精品一区二区三区婷婷月 | 欧美日本免费一区二区三区 | 国产农村乱对白刺激视频 | 欧美人与禽猛交狂配 | 欧美成人家庭影院 | 极品嫩模高潮叫床 | 久青草影院在线观看国产 | 四十如虎的丰满熟妇啪啪 | 日韩成人一区二区三区在线观看 | 天天躁夜夜躁狠狠是什么心态 | 熟妇人妻无码xxx视频 | а√天堂www在线天堂小说 | 国産精品久久久久久久 | 亚洲国产精品久久久久久 | 少妇高潮喷潮久久久影院 | 亚洲中文无码av永久不收费 | 国产后入清纯学生妹 | 又紧又大又爽精品一区二区 | 久久久久亚洲精品男人的天堂 | 久久综合给合久久狠狠狠97色 | 人妻aⅴ无码一区二区三区 | 无码播放一区二区三区 | 午夜肉伦伦影院 | √天堂资源地址中文在线 | a片免费视频在线观看 | 天天av天天av天天透 | 久久99精品久久久久久 | 国产午夜亚洲精品不卡 | 国产麻豆精品精东影业av网站 | 国产精品久久久久无码av色戒 | 国产亚洲视频中文字幕97精品 | 国产一区二区三区精品视频 | 激情五月综合色婷婷一区二区 | 丰腴饱满的极品熟妇 | 亚洲国产一区二区三区在线观看 | 国产精品亚洲专区无码不卡 | 亚洲熟妇色xxxxx欧美老妇y | 久久亚洲精品成人无码 | 人妻中文无码久热丝袜 | 国产精品手机免费 | 精品人妻中文字幕有码在线 | 人人爽人人澡人人人妻 | 四虎国产精品一区二区 | 日韩精品成人一区二区三区 | 亚洲精品美女久久久久久久 | 国产乡下妇女做爰 | 丰满人妻被黑人猛烈进入 | 精品国偷自产在线 | 亚洲精品成人福利网站 | 在线天堂新版最新版在线8 | 欧美人与物videos另类 | 精品乱子伦一区二区三区 | 精品一区二区不卡无码av | 一二三四社区在线中文视频 | 色婷婷av一区二区三区之红樱桃 | 精品一区二区三区波多野结衣 | 精品久久久中文字幕人妻 | 国产精品va在线播放 | 欧美人与禽猛交狂配 | 国产一区二区三区精品视频 | 国产美女极度色诱视频www | 狠狠色噜噜狠狠狠狠7777米奇 | 色综合久久网 | 麻豆av传媒蜜桃天美传媒 | 国产精品美女久久久久av爽李琼 | 老头边吃奶边弄进去呻吟 | 水蜜桃亚洲一二三四在线 | 久久综合九色综合欧美狠狠 | 国产精品久久久久无码av色戒 | 亚洲 高清 成人 动漫 | 久久99热只有频精品8 | 东北女人啪啪对白 | 欧美性生交活xxxxxdddd | 亚洲狠狠色丁香婷婷综合 | 免费视频欧美无人区码 | 18精品久久久无码午夜福利 | 亚洲精品国产精品乱码不卡 | 十八禁真人啪啪免费网站 | 日本又色又爽又黄的a片18禁 | 精品久久久无码人妻字幂 | 人妻与老人中文字幕 | 中国女人内谢69xxxxxa片 | 日本精品人妻无码77777 天堂一区人妻无码 | 免费国产黄网站在线观看 | av无码电影一区二区三区 | 麻豆精品国产精华精华液好用吗 | 久久精品国产精品国产精品污 | 国产亚洲视频中文字幕97精品 | 亚洲经典千人经典日产 | 亚洲国产日韩a在线播放 | 少妇被粗大的猛进出69影院 | 麻豆成人精品国产免费 | 日韩人妻少妇一区二区三区 | 亚洲成色在线综合网站 | 亚洲欧美色中文字幕在线 | 国产av一区二区精品久久凹凸 | 精品国精品国产自在久国产87 | 国产精品沙发午睡系列 | 亚洲日本一区二区三区在线 | 白嫩日本少妇做爰 | 国产国语老龄妇女a片 | 日产国产精品亚洲系列 | 亚洲熟女一区二区三区 | 青青久在线视频免费观看 | 伊在人天堂亚洲香蕉精品区 | 丰满护士巨好爽好大乳 | 国产精品无码一区二区三区不卡 | 国产美女精品一区二区三区 | 久久久久久久人妻无码中文字幕爆 | 亚洲综合在线一区二区三区 | 国产成人一区二区三区在线观看 | 日本一卡2卡3卡四卡精品网站 | 久久99精品久久久久婷婷 | 国产午夜精品一区二区三区嫩草 | 国产成人午夜福利在线播放 | 一本色道久久综合狠狠躁 | 成人免费无码大片a毛片 | 日韩精品无码免费一区二区三区 | 97夜夜澡人人爽人人喊中国片 | 沈阳熟女露脸对白视频 | 国产精品久久久一区二区三区 | 中文字幕av日韩精品一区二区 | 初尝人妻少妇中文字幕 | 秋霞特色aa大片 | 日日干夜夜干 | a在线观看免费网站大全 | 国产舌乚八伦偷品w中 | 国产亚av手机在线观看 | 牲交欧美兽交欧美 | 国产午夜手机精彩视频 | 国产精品无套呻吟在线 | 5858s亚洲色大成网站www | 水蜜桃av无码 | 久久 国产 尿 小便 嘘嘘 | 蜜臀aⅴ国产精品久久久国产老师 | 网友自拍区视频精品 | 国产亚洲精品久久久久久久 | 国产精品久久久久9999小说 | 红桃av一区二区三区在线无码av | 亚洲а∨天堂久久精品2021 | 嫩b人妻精品一区二区三区 | 成人一区二区免费视频 | 人人妻人人澡人人爽人人精品浪潮 | 精品成在人线av无码免费看 | 婷婷丁香六月激情综合啪 | 日本一卡二卡不卡视频查询 | 天天综合网天天综合色 | 极品嫩模高潮叫床 | 精品一二三区久久aaa片 | 亚洲自偷自拍另类第1页 | 一本一道久久综合久久 | 久精品国产欧美亚洲色aⅴ大片 | 国产在线精品一区二区高清不卡 | 日韩精品a片一区二区三区妖精 | 丰满人妻翻云覆雨呻吟视频 | 精品国产成人一区二区三区 | 无码人妻丰满熟妇区毛片18 | 日韩视频 中文字幕 视频一区 | 亚洲成av人片在线观看无码不卡 | 国产精品国产自线拍免费软件 | 成 人 免费观看网站 | 无遮无挡爽爽免费视频 | 未满成年国产在线观看 | 国产人妻久久精品二区三区老狼 | 少妇的肉体aa片免费 | 日韩人妻无码中文字幕视频 | 免费无码肉片在线观看 | 麻豆国产97在线 | 欧洲 | 任你躁在线精品免费 | 人妻少妇被猛烈进入中文字幕 | 无码乱肉视频免费大全合集 | 精品人人妻人人澡人人爽人人 | 亚洲日本在线电影 | 一本加勒比波多野结衣 | 精品国产乱码久久久久乱码 | 丰满岳乱妇在线观看中字无码 | 国产精华av午夜在线观看 | 国产电影无码午夜在线播放 | 51国偷自产一区二区三区 | 亚洲精品国产品国语在线观看 | 精品国产成人一区二区三区 | 久久久久国色av免费观看性色 | 国产在线一区二区三区四区五区 | 强辱丰满人妻hd中文字幕 | 中文字幕乱码亚洲无线三区 | 日本又色又爽又黄的a片18禁 | 亚洲精品午夜无码电影网 | 性欧美大战久久久久久久 | 樱花草在线播放免费中文 | 牲欲强的熟妇农村老妇女 | 亚洲国产精品久久久天堂 | 国产精品久久国产精品99 | 精品久久综合1区2区3区激情 | 欧美一区二区三区视频在线观看 | 性色欲网站人妻丰满中文久久不卡 | 扒开双腿疯狂进出爽爽爽视频 | 国产精品.xx视频.xxtv | 亚洲理论电影在线观看 | √8天堂资源地址中文在线 | 日本精品人妻无码77777 天堂一区人妻无码 | 精品无人国产偷自产在线 | 国产情侣作爱视频免费观看 | 天堂久久天堂av色综合 | aⅴ在线视频男人的天堂 | 亚洲成a人片在线观看无码3d | 国产偷国产偷精品高清尤物 | 午夜精品久久久内射近拍高清 | 亚洲国产一区二区三区在线观看 | 中文精品无码中文字幕无码专区 | 久久人人爽人人爽人人片av高清 | 欧美国产日产一区二区 | 一二三四在线观看免费视频 | 亚洲小说图区综合在线 | 精品少妇爆乳无码av无码专区 | 国产精品久久久午夜夜伦鲁鲁 | 免费看男女做好爽好硬视频 | 国产成人无码a区在线观看视频app | 日韩在线不卡免费视频一区 | 久久久久99精品成人片 | 少妇无套内谢久久久久 | 欧美丰满少妇xxxx性 | 狠狠色噜噜狠狠狠7777奇米 | 久久99久久99精品中文字幕 | 水蜜桃av无码 | 日日碰狠狠丁香久燥 | 激情五月综合色婷婷一区二区 | 亚洲一区二区观看播放 | 在线a亚洲视频播放在线观看 | 中文字幕无码热在线视频 | 精品国产青草久久久久福利 | 无码人妻黑人中文字幕 | 国色天香社区在线视频 | 欧美猛少妇色xxxxx | 国产成人精品一区二区在线小狼 | 少妇的肉体aa片免费 | 精品成人av一区二区三区 | 国产精品第一国产精品 | 国产av无码专区亚洲a∨毛片 | 中文无码伦av中文字幕 | 4hu四虎永久在线观看 | 国产又粗又硬又大爽黄老大爷视 | 在线 国产 欧美 亚洲 天堂 | 丰满少妇女裸体bbw | 人人妻人人澡人人爽欧美一区九九 | 正在播放东北夫妻内射 | 免费人成在线观看网站 | 欧美日本免费一区二区三区 | 两性色午夜免费视频 | 人人爽人人澡人人高潮 | 一本色道久久综合狠狠躁 | 国产av人人夜夜澡人人爽麻豆 | 黑森林福利视频导航 | 中文字幕 亚洲精品 第1页 | 国产超碰人人爽人人做人人添 | 人人超人人超碰超国产 | 国产精品久久福利网站 | 精品国产麻豆免费人成网站 | 久久综合香蕉国产蜜臀av | 欧美精品一区二区精品久久 | 国产小呦泬泬99精品 | 两性色午夜视频免费播放 | 日本护士毛茸茸高潮 | 国产精品嫩草久久久久 | 在教室伦流澡到高潮hnp视频 | 国产成人午夜福利在线播放 | √天堂中文官网8在线 | 无码精品国产va在线观看dvd | 熟女少妇人妻中文字幕 | 国产黄在线观看免费观看不卡 | 女人被爽到呻吟gif动态图视看 | 东京热一精品无码av | 人妻少妇精品无码专区动漫 | 成在人线av无码免观看麻豆 | 人人爽人人爽人人片av亚洲 | 夫妻免费无码v看片 | 丰满人妻精品国产99aⅴ | 中国女人内谢69xxxxxa片 | 亚洲熟妇色xxxxx欧美老妇y | 俺去俺来也在线www色官网 | 98国产精品综合一区二区三区 | 亚洲码国产精品高潮在线 | 国产区女主播在线观看 | 婷婷五月综合缴情在线视频 | 熟女俱乐部五十路六十路av | 亚洲欧美色中文字幕在线 | 领导边摸边吃奶边做爽在线观看 | 久久无码中文字幕免费影院蜜桃 | 日本高清一区免费中文视频 | 色婷婷综合激情综在线播放 | √天堂资源地址中文在线 | 久久精品99久久香蕉国产色戒 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久在线观看福利视频 | 国内精品久久久久久中文字幕 | 西西人体www44rt大胆高清 | 国模大胆一区二区三区 | 一本久道久久综合狠狠爱 | 高清国产亚洲精品自在久久 | 色一情一乱一伦一视频免费看 | 亚洲精品欧美二区三区中文字幕 | 国产精品无码久久av | 少妇被粗大的猛进出69影院 | 内射爽无广熟女亚洲 | 亚洲无人区一区二区三区 | 久久久无码中文字幕久... | 久久精品视频在线看15 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲精品综合一区二区三区在线 | 久久久久久久久蜜桃 | 99国产精品白浆在线观看免费 | 国产成人精品三级麻豆 | 国产成人无码av片在线观看不卡 | 男女作爱免费网站 | 中文字幕日韩精品一区二区三区 | 熟妇人妻无乱码中文字幕 | 国产电影无码午夜在线播放 | 日日摸夜夜摸狠狠摸婷婷 | 日本www一道久久久免费榴莲 | 成年美女黄网站色大免费视频 | 国产精品人人爽人人做我的可爱 | 国产精品人人爽人人做我的可爱 | 欧美日韩一区二区免费视频 | 男人的天堂av网站 | 国产精品国产自线拍免费软件 | 成人亚洲精品久久久久软件 | 狠狠cao日日穞夜夜穞av | 久久人人97超碰a片精品 | 中文字幕av无码一区二区三区电影 | 欧洲欧美人成视频在线 | 搡女人真爽免费视频大全 | 人人妻人人澡人人爽人人精品 | 色婷婷av一区二区三区之红樱桃 | av无码电影一区二区三区 | 少妇人妻偷人精品无码视频 | 久久久久亚洲精品中文字幕 | 亚洲精品一区二区三区在线观看 | 国产一精品一av一免费 | 久久精品女人天堂av免费观看 | 亚洲精品久久久久久久久久久 | 国产乱码精品一品二品 | 无码av免费一区二区三区试看 | 高清无码午夜福利视频 | 丝袜 中出 制服 人妻 美腿 | 377p欧洲日本亚洲大胆 | 中文字幕无码乱人伦 | 男女下面进入的视频免费午夜 | 伦伦影院午夜理论片 | 精品久久8x国产免费观看 | 国产激情精品一区二区三区 | 国产猛烈高潮尖叫视频免费 | 西西人体www44rt大胆高清 | 在线播放免费人成毛片乱码 | 蜜桃视频插满18在线观看 | 曰本女人与公拘交酡免费视频 | 欧美 日韩 人妻 高清 中文 | 免费人成在线观看网站 | 亚洲а∨天堂久久精品2021 | 久久精品无码一区二区三区 | 在线播放免费人成毛片乱码 | 国产综合色产在线精品 | 久久久久成人精品免费播放动漫 | 欧美人与善在线com | 亚洲国产一区二区三区在线观看 | 日本xxxx色视频在线观看免费 | 一二三四在线观看免费视频 | 久久久久人妻一区精品色欧美 | 少妇无套内谢久久久久 | 日日躁夜夜躁狠狠躁 | 狂野欧美性猛交免费视频 | 色一情一乱一伦 | 久久亚洲精品成人无码 | 丝袜美腿亚洲一区二区 | 国产在线无码精品电影网 | 最近中文2019字幕第二页 | 久久久久国色av免费观看性色 | 欧洲vodafone精品性 | 人妻与老人中文字幕 | 国产综合在线观看 | 亚洲欧美国产精品久久 | 色婷婷香蕉在线一区二区 | 樱花草在线播放免费中文 | 男人和女人高潮免费网站 | 亚洲第一无码av无码专区 | 日韩在线不卡免费视频一区 | 天天综合网天天综合色 | 欧美性生交xxxxx久久久 | 日日噜噜噜噜夜夜爽亚洲精品 | 最近中文2019字幕第二页 | 色欲久久久天天天综合网精品 | 国产无遮挡又黄又爽又色 | 国产在线无码精品电影网 | 亚洲精品一区二区三区在线观看 | 国产精品办公室沙发 | 久久久久亚洲精品男人的天堂 | 久久精品一区二区三区四区 | 国产精品怡红院永久免费 | 乱码午夜-极国产极内射 | 欧美日韩久久久精品a片 | 国产精品欧美成人 | 午夜理论片yy44880影院 | 少妇人妻av毛片在线看 | 青春草在线视频免费观看 | 熟妇人妻中文av无码 | 亚洲熟妇色xxxxx亚洲 | 内射爽无广熟女亚洲 | 无遮挡国产高潮视频免费观看 | 天干天干啦夜天干天2017 | 中文字幕av日韩精品一区二区 | 国产精品资源一区二区 | 欧美freesex黑人又粗又大 | 伊人久久大香线蕉午夜 | 成在人线av无码免观看麻豆 | 国产疯狂伦交大片 | 日韩精品成人一区二区三区 | 曰本女人与公拘交酡免费视频 | 欧美老妇与禽交 | 一本久道久久综合狠狠爱 | 美女极度色诱视频国产 | 日本一本二本三区免费 | 久久久久se色偷偷亚洲精品av | 亚洲 欧美 激情 小说 另类 | 少妇无码吹潮 | 精品人妻中文字幕有码在线 | 精品无码国产一区二区三区av | 99riav国产精品视频 | 亚洲 另类 在线 欧美 制服 | 色婷婷欧美在线播放内射 | 国精产品一区二区三区 | 成人片黄网站色大片免费观看 | 国产成人久久精品流白浆 | 青青久在线视频免费观看 | 亚洲国产欧美国产综合一区 | 色窝窝无码一区二区三区色欲 | 国产无套内射久久久国产 | 精品久久久无码中文字幕 | 亚洲熟熟妇xxxx | 国产免费观看黄av片 | 中文字幕av伊人av无码av | 丁香花在线影院观看在线播放 | 无码国内精品人妻少妇 | 久久久久久a亚洲欧洲av冫 | 亚洲另类伦春色综合小说 | 精品久久综合1区2区3区激情 | 亚洲精品一区二区三区四区五区 | 国产亚洲精品久久久闺蜜 | 国产精品igao视频网 | 日韩人妻系列无码专区 | 精品久久久无码人妻字幂 | 131美女爱做视频 | 两性色午夜免费视频 | 真人与拘做受免费视频 | 巨爆乳无码视频在线观看 | 成熟妇人a片免费看网站 | 1000部夫妻午夜免费 | 亚洲精品国产品国语在线观看 | 日本大乳高潮视频在线观看 | 在线看片无码永久免费视频 | 亚洲乱码国产乱码精品精 | 亚洲成av人片在线观看无码不卡 | 欧美人与禽猛交狂配 | 色婷婷av一区二区三区之红樱桃 | 亚洲日本在线电影 | 色婷婷av一区二区三区之红樱桃 | 伊人久久大香线蕉亚洲 | 高潮毛片无遮挡高清免费视频 | 亚洲性无码av中文字幕 | 欧洲vodafone精品性 | 欧洲熟妇精品视频 | 天天躁日日躁狠狠躁免费麻豆 | 1000部夫妻午夜免费 | 国产色精品久久人妻 | 双乳奶水饱满少妇呻吟 | 亚洲精品成人av在线 | 成人欧美一区二区三区黑人免费 | 天堂а√在线地址中文在线 | 性色欲情网站iwww九文堂 | 亚洲精品综合一区二区三区在线 | 窝窝午夜理论片影院 | 精品久久久久久人妻无码中文字幕 | 亚洲中文无码av永久不收费 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产凸凹视频一区二区 | 国产欧美熟妇另类久久久 | 国产无遮挡又黄又爽免费视频 | 国产精品va在线观看无码 | 蜜臀av无码人妻精品 | 国产免费久久精品国产传媒 | 久久99精品久久久久久动态图 | 日本xxxx色视频在线观看免费 | 亚洲精品综合一区二区三区在线 | 国精产品一品二品国精品69xx | 色综合视频一区二区三区 | 未满成年国产在线观看 | 领导边摸边吃奶边做爽在线观看 | 美女极度色诱视频国产 | 一本色道久久综合亚洲精品不卡 | 亚洲 日韩 欧美 成人 在线观看 | 国产午夜福利亚洲第一 | 午夜性刺激在线视频免费 | 一本久久a久久精品vr综合 | 亚洲中文字幕成人无码 | 97精品国产97久久久久久免费 | 风流少妇按摩来高潮 | 亚洲国产精品无码久久久久高潮 | 日韩欧美群交p片內射中文 | 少妇激情av一区二区 | 狠狠综合久久久久综合网 | 国色天香社区在线视频 | 国产人妻精品一区二区三区不卡 | 久久99精品国产麻豆 | 久久亚洲国产成人精品性色 | 少妇厨房愉情理9仑片视频 | 亚洲国产精品久久久天堂 | 亚洲最大成人网站 | 天天av天天av天天透 | 国产美女极度色诱视频www | 成人欧美一区二区三区黑人 | 国产两女互慰高潮视频在线观看 | 漂亮人妻洗澡被公强 日日躁 | 亚洲精品综合一区二区三区在线 | 欧美性生交活xxxxxdddd | 超碰97人人射妻 | 黑人大群体交免费视频 | 精品无码一区二区三区爱欲 | 精品国产一区二区三区四区在线看 | 久久国产精品精品国产色婷婷 | 免费观看黄网站 | 51国偷自产一区二区三区 | 无码av最新清无码专区吞精 | 色诱久久久久综合网ywww | 人妻无码久久精品人妻 | 中文久久乱码一区二区 | 极品尤物被啪到呻吟喷水 | 欧美35页视频在线观看 | 亚洲色偷偷男人的天堂 | 国产无遮挡又黄又爽免费视频 | 亚洲精品午夜国产va久久成人 | 国产激情综合五月久久 | 日产精品99久久久久久 | 日本大乳高潮视频在线观看 | 亚洲国产一区二区三区在线观看 | 国产无遮挡吃胸膜奶免费看 | 在线看片无码永久免费视频 | 欧美午夜特黄aaaaaa片 | 久久久精品成人免费观看 | 无码人妻少妇伦在线电影 | 亚洲精品国产第一综合99久久 | 亚洲综合无码一区二区三区 | 亚洲中文字幕在线无码一区二区 | www一区二区www免费 | 日本乱人伦片中文三区 | 精品欧美一区二区三区久久久 | 扒开双腿吃奶呻吟做受视频 | 国产精品理论片在线观看 | 亚洲色成人中文字幕网站 | 久久久www成人免费毛片 | 永久免费观看美女裸体的网站 | 久久人人爽人人爽人人片ⅴ | 性色av无码免费一区二区三区 | 在线精品亚洲一区二区 | 色综合视频一区二区三区 | 亚洲色在线无码国产精品不卡 | 亚洲人成影院在线无码按摩店 | 又大又硬又爽免费视频 | 国产激情一区二区三区 | 色偷偷人人澡人人爽人人模 | 无码人妻丰满熟妇区五十路百度 | 午夜精品一区二区三区在线观看 | 国产成人综合色在线观看网站 | 亚洲性无码av中文字幕 | 国产成人精品优优av | 又色又爽又黄的美女裸体网站 | www国产亚洲精品久久久日本 | 一本无码人妻在中文字幕免费 | 国产乱码精品一品二品 | 青草青草久热国产精品 | 国产av一区二区三区最新精品 | 久久久久免费精品国产 | 正在播放老肥熟妇露脸 | 久久国产自偷自偷免费一区调 | 中文字幕中文有码在线 | 国产精品手机免费 | 亚洲精品国产品国语在线观看 | 亚洲七七久久桃花影院 | 四十如虎的丰满熟妇啪啪 | 夜夜高潮次次欢爽av女 | 少妇性俱乐部纵欲狂欢电影 | 日韩欧美成人免费观看 | 国产偷国产偷精品高清尤物 | 精品欧洲av无码一区二区三区 | 久久国产精品偷任你爽任你 | 少妇高潮喷潮久久久影院 | 亚洲va欧美va天堂v国产综合 | av人摸人人人澡人人超碰下载 | 玩弄中年熟妇正在播放 | 98国产精品综合一区二区三区 | 欧美熟妇另类久久久久久多毛 | av在线亚洲欧洲日产一区二区 | 天天躁日日躁狠狠躁免费麻豆 | 正在播放老肥熟妇露脸 | 久久人人爽人人爽人人片av高清 | 亚洲另类伦春色综合小说 | 国产精品亚洲五月天高清 | 欧美午夜特黄aaaaaa片 | 亚洲熟妇色xxxxx欧美老妇 | 无码人妻精品一区二区三区不卡 | 啦啦啦www在线观看免费视频 | 欧美成人午夜精品久久久 | 夜夜高潮次次欢爽av女 | 精品国产乱码久久久久乱码 | 欧洲熟妇精品视频 | 国产97人人超碰caoprom | 国产精品国产三级国产专播 | 国产在热线精品视频 | 国产精品爱久久久久久久 | 国内丰满熟女出轨videos | 久久人人97超碰a片精品 | 日韩av无码一区二区三区 | 双乳奶水饱满少妇呻吟 | 精品国产一区二区三区四区在线看 | 双乳奶水饱满少妇呻吟 | 亚洲综合无码一区二区三区 | 亚洲熟妇色xxxxx欧美老妇y | 精品久久久久香蕉网 | 国产亚洲精品久久久ai换 | 婷婷综合久久中文字幕蜜桃三电影 | 亚洲国产成人a精品不卡在线 | 国产性生大片免费观看性 | 国产精品99爱免费视频 | 大肉大捧一进一出好爽视频 | 国产网红无码精品视频 | 国产精品成人av在线观看 | 在线观看免费人成视频 | www国产亚洲精品久久久日本 | 亚洲天堂2017无码中文 | 亚洲国产一区二区三区在线观看 | 成人亚洲精品久久久久 | 午夜成人1000部免费视频 | 国产精品久久久av久久久 | 国产美女精品一区二区三区 | 一个人免费观看的www视频 | 正在播放东北夫妻内射 | 国产精品久久久午夜夜伦鲁鲁 | 少妇的肉体aa片免费 | 亚洲 激情 小说 另类 欧美 | 国产av剧情md精品麻豆 | 18黄暴禁片在线观看 | 丰满人妻精品国产99aⅴ | 亚洲自偷自拍另类第1页 | 久久久精品人妻久久影视 | 奇米影视7777久久精品人人爽 | 亚洲va欧美va天堂v国产综合 | 偷窥日本少妇撒尿chinese | 97se亚洲精品一区 | 中文字幕无码免费久久99 | 99精品视频在线观看免费 | 国产成人无码av片在线观看不卡 | 久久亚洲精品中文字幕无男同 | 少妇被黑人到高潮喷出白浆 | 成人精品天堂一区二区三区 | 中文无码成人免费视频在线观看 | 久久亚洲中文字幕精品一区 | 男人和女人高潮免费网站 | 天天摸天天透天天添 | 全球成人中文在线 | 一本久道久久综合狠狠爱 | 亚洲а∨天堂久久精品2021 | 亚洲第一无码av无码专区 | 又大又硬又黄的免费视频 | 东北女人啪啪对白 | 亚洲中文字幕久久无码 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲日本va午夜在线电影 | 日本熟妇乱子伦xxxx | 玩弄少妇高潮ⅹxxxyw | 日韩少妇内射免费播放 | 亚洲乱码中文字幕在线 | 波多野结衣av一区二区全免费观看 | 久久99精品国产.久久久久 | 国产精品久久久久无码av色戒 | 大地资源网第二页免费观看 | 98国产精品综合一区二区三区 | 亚洲精品久久久久avwww潮水 | 国产精品人妻一区二区三区四 | 丰满人妻被黑人猛烈进入 | 免费无码的av片在线观看 | 久久精品国产99精品亚洲 | 最近的中文字幕在线看视频 | 麻豆人妻少妇精品无码专区 | 强奷人妻日本中文字幕 | 骚片av蜜桃精品一区 | 无码国内精品人妻少妇 | 久久亚洲中文字幕无码 | 久久国产精品_国产精品 | 国产精品第一区揄拍无码 | 午夜肉伦伦影院 | 粗大的内捧猛烈进出视频 | 国内综合精品午夜久久资源 | 亚洲综合精品香蕉久久网 | 国产精品99爱免费视频 | 日本熟妇乱子伦xxxx | 女人高潮内射99精品 | 亚洲乱码中文字幕在线 | 97久久国产亚洲精品超碰热 | 国产深夜福利视频在线 | 青春草在线视频免费观看 | 高潮毛片无遮挡高清免费视频 | 精品夜夜澡人妻无码av蜜桃 | 无码av免费一区二区三区试看 | 一个人看的www免费视频在线观看 | 欧美国产日韩亚洲中文 | 久久人人爽人人人人片 | 中文亚洲成a人片在线观看 | 欧美 丝袜 自拍 制服 另类 | 久精品国产欧美亚洲色aⅴ大片 | 国产精品亚洲一区二区三区喷水 | 性欧美大战久久久久久久 | 精品无码一区二区三区爱欲 | 亚洲 高清 成人 动漫 | 成人女人看片免费视频放人 | 内射老妇bbwx0c0ck | 无码免费一区二区三区 | 3d动漫精品啪啪一区二区中 | 亚洲欧美国产精品久久 | 国产色精品久久人妻 | 亚洲国产综合无码一区 | 国产97在线 | 亚洲 | 少妇人妻偷人精品无码视频 | 丰满人妻一区二区三区免费视频 | 欧美三级a做爰在线观看 | 国产精品国产三级国产专播 | 强奷人妻日本中文字幕 | 国精产品一品二品国精品69xx | 亚洲成av人影院在线观看 | 久久精品国产一区二区三区 | 免费乱码人妻系列无码专区 | 亚洲s码欧洲m码国产av | 欧美xxxx黑人又粗又长 | 在教室伦流澡到高潮hnp视频 | 熟妇激情内射com | 风流少妇按摩来高潮 | 99久久精品无码一区二区毛片 | 最新版天堂资源中文官网 | 漂亮人妻洗澡被公强 日日躁 | 理论片87福利理论电影 | 亚洲中文字幕久久无码 | 亚洲 欧美 激情 小说 另类 | 98国产精品综合一区二区三区 | 内射后入在线观看一区 | 色婷婷欧美在线播放内射 | 国产三级精品三级男人的天堂 | 精品无人区无码乱码毛片国产 | 99精品国产综合久久久久五月天 | 亚洲狠狠色丁香婷婷综合 | 老熟女重囗味hdxx69 | 国产va免费精品观看 | 中文字幕无码av波多野吉衣 | 少妇被粗大的猛进出69影院 | 亚洲欧洲中文日韩av乱码 | 久久久精品欧美一区二区免费 | 四虎永久在线精品免费网址 | 欧美精品无码一区二区三区 | 欧美精品一区二区精品久久 | 亚洲自偷自拍另类第1页 | 亚洲人成网站免费播放 | 网友自拍区视频精品 | 四虎影视成人永久免费观看视频 | 99久久精品午夜一区二区 | 偷窥日本少妇撒尿chinese | 性欧美大战久久久久久久 | 久久久久久久久888 | 日韩人妻少妇一区二区三区 | 九月婷婷人人澡人人添人人爽 | 2020最新国产自产精品 | 蜜臀av在线播放 久久综合激激的五月天 | 成人欧美一区二区三区黑人免费 | 水蜜桃色314在线观看 | 国产精品人人爽人人做我的可爱 | 色情久久久av熟女人妻网站 | 四虎国产精品一区二区 | 久久99精品久久久久婷婷 | 日本精品久久久久中文字幕 | 色诱久久久久综合网ywww | 精品国产麻豆免费人成网站 | 欧美一区二区三区视频在线观看 | 熟妇人妻激情偷爽文 | 国产成人一区二区三区在线观看 | 无码人妻丰满熟妇区毛片18 | 色综合视频一区二区三区 | 暴力强奷在线播放无码 | 77777熟女视频在线观看 а天堂中文在线官网 | 国产日产欧产精品精品app | 无码人妻久久一区二区三区不卡 | 国产精品人人妻人人爽 | 色欲人妻aaaaaaa无码 | 久久精品女人天堂av免费观看 | 精品无码一区二区三区的天堂 | 一二三四社区在线中文视频 | 精品日本一区二区三区在线观看 | 精品一区二区三区无码免费视频 | 久久人妻内射无码一区三区 | 桃花色综合影院 | 日韩精品成人一区二区三区 | 四虎永久在线精品免费网址 | 丰满妇女强制高潮18xxxx | 亚洲欧洲日本综合aⅴ在线 | 狂野欧美性猛xxxx乱大交 | 亚洲欧美日韩成人高清在线一区 | 国产精品.xx视频.xxtv | 国产午夜精品一区二区三区嫩草 | 亚洲精品中文字幕乱码 | 一本大道久久东京热无码av | 99精品视频在线观看免费 | 国内综合精品午夜久久资源 | 国产精品18久久久久久麻辣 | 国产三级精品三级男人的天堂 | 精品国产一区二区三区四区在线看 | 久久久亚洲欧洲日产国码αv | 国产区女主播在线观看 | 成 人影片 免费观看 | 国产亚洲精品久久久久久久久动漫 | 午夜福利不卡在线视频 | 九一九色国产 | 美女毛片一区二区三区四区 | 偷窥日本少妇撒尿chinese | 未满成年国产在线观看 | 亚洲色成人中文字幕网站 | 乌克兰少妇xxxx做受 | 久久无码专区国产精品s | 日日躁夜夜躁狠狠躁 | 日本va欧美va欧美va精品 | 亚洲国产精品久久人人爱 | 国产av一区二区精品久久凹凸 | 国产农村妇女高潮大叫 | 成人亚洲精品久久久久软件 | 亚洲精品一区国产 | 国产精品嫩草久久久久 | 国产精品美女久久久久av爽李琼 | 亚洲日本va中文字幕 | 久久人妻内射无码一区三区 | 少妇被粗大的猛进出69影院 | 对白脏话肉麻粗话av | 国产精品18久久久久久麻辣 | 亚洲春色在线视频 | 亚洲aⅴ无码成人网站国产app | 久久精品国产大片免费观看 | 欧美大屁股xxxxhd黑色 | 亚洲乱码国产乱码精品精 | 国产极品视觉盛宴 | 久久久久久九九精品久 | 欧美午夜特黄aaaaaa片 | 任你躁在线精品免费 | 国产又粗又硬又大爽黄老大爷视 | 国产精品美女久久久 | 日本一卡2卡3卡四卡精品网站 | 麻豆蜜桃av蜜臀av色欲av | 亚洲va中文字幕无码久久不卡 | 丰满少妇女裸体bbw | 国产精品第一区揄拍无码 | 麻花豆传媒剧国产免费mv在线 | 欧美黑人性暴力猛交喷水 | 精品国产青草久久久久福利 | 老头边吃奶边弄进去呻吟 | 亚洲国产精品久久久天堂 | 99久久婷婷国产综合精品青草免费 | 亚洲区小说区激情区图片区 | 国产麻豆精品精东影业av网站 | 亚洲gv猛男gv无码男同 | 少妇性l交大片欧洲热妇乱xxx | 永久黄网站色视频免费直播 | 国产亚洲tv在线观看 | 国产免费久久精品国产传媒 | 精品欧美一区二区三区久久久 | 色婷婷av一区二区三区之红樱桃 | 国产国语老龄妇女a片 | 丰满少妇女裸体bbw | 精品久久8x国产免费观看 | 中文字幕精品av一区二区五区 | 精品国产麻豆免费人成网站 | 精品国精品国产自在久国产87 | 性啪啪chinese东北女人 | 国产精品理论片在线观看 | 伊人久久大香线蕉av一区二区 | 亚洲国产精品一区二区第一页 | 久久国语露脸国产精品电影 | 77777熟女视频在线观看 а天堂中文在线官网 | 一本大道久久东京热无码av | 国产精品第一区揄拍无码 | 无码人妻精品一区二区三区不卡 | 亚洲日本va中文字幕 | 超碰97人人做人人爱少妇 | 午夜精品一区二区三区在线观看 | 少妇无码av无码专区在线观看 | 国产无遮挡又黄又爽又色 | 亚洲の无码国产の无码步美 | 国产精品99爱免费视频 | 色情久久久av熟女人妻网站 | a片在线免费观看 | 人人妻人人澡人人爽欧美一区 | 一本一道久久综合久久 | 天天燥日日燥 | 日日干夜夜干 | 日韩视频 中文字幕 视频一区 | 国产一区二区不卡老阿姨 | 亚洲欧美中文字幕5发布 | 草草网站影院白丝内射 | 亚洲欧美精品aaaaaa片 | 2019午夜福利不卡片在线 | 亚洲精品成a人在线观看 | 久久国产自偷自偷免费一区调 | 国产亚洲视频中文字幕97精品 | 女人高潮内射99精品 | 久久zyz资源站无码中文动漫 | 波多野结衣av一区二区全免费观看 | 无码人妻av免费一区二区三区 | 久久熟妇人妻午夜寂寞影院 | 激情内射日本一区二区三区 | 国产乱码精品一品二品 | 中文字幕+乱码+中文字幕一区 | 日日麻批免费40分钟无码 | 99精品视频在线观看免费 | 麻豆精产国品 | 国产激情精品一区二区三区 | 男女性色大片免费网站 | 日日天日日夜日日摸 | 亚洲综合另类小说色区 | 国产精品-区区久久久狼 | 在线a亚洲视频播放在线观看 | 色一情一乱一伦一区二区三欧美 | 国产精品免费大片 | 成人无码精品1区2区3区免费看 | 国产精品久久福利网站 | 欧美老熟妇乱xxxxx | 日韩精品成人一区二区三区 | 麻豆国产人妻欲求不满谁演的 | 无遮无挡爽爽免费视频 | 婷婷五月综合缴情在线视频 | 给我免费的视频在线观看 | 综合激情五月综合激情五月激情1 | 欧美黑人乱大交 | 中文字幕中文有码在线 | 男女性色大片免费网站 | 天天综合网天天综合色 | 精品国产麻豆免费人成网站 | 国产情侣作爱视频免费观看 | 爱做久久久久久 | 99re在线播放 | 夜精品a片一区二区三区无码白浆 | 国产偷国产偷精品高清尤物 | 国产精品va在线观看无码 | 国产精品福利视频导航 | 国产手机在线αⅴ片无码观看 | 影音先锋中文字幕无码 | 国产成人无码区免费内射一片色欲 | 日本乱人伦片中文三区 | 国产精品成人av在线观看 | 国产午夜精品一区二区三区嫩草 | 亚洲中文字幕无码中文字在线 | 日本肉体xxxx裸交 | 亚洲一区二区三区国产精华液 | 免费视频欧美无人区码 | 中文字幕乱码人妻二区三区 | 性欧美videos高清精品 | 色综合久久中文娱乐网 | 国产av无码专区亚洲awww | 成人影院yy111111在线观看 | 久久综合九色综合欧美狠狠 | 日本丰满护士爆乳xxxx | 久久精品国产精品国产精品污 | 久久99热只有频精品8 | 欧美日韩视频无码一区二区三 | 无码中文字幕色专区 | 久激情内射婷内射蜜桃人妖 | 在线亚洲高清揄拍自拍一品区 | 中文字幕无码av激情不卡 | 亚洲精品久久久久久一区二区 | 人妻少妇精品无码专区动漫 | 国内精品人妻无码久久久影院 | 日本一区二区三区免费高清 | 无码任你躁久久久久久久 | 日本在线高清不卡免费播放 | 久久精品国产99精品亚洲 | 高清无码午夜福利视频 | 国产亚洲欧美日韩亚洲中文色 | 欧洲精品码一区二区三区免费看 | 一本大道伊人av久久综合 | 麻花豆传媒剧国产免费mv在线 | 日本一卡二卡不卡视频查询 | 成人av无码一区二区三区 | 亚洲中文字幕av在天堂 | 天堂无码人妻精品一区二区三区 | 亚洲一区二区观看播放 | 亚洲 欧美 激情 小说 另类 | www成人国产高清内射 | 亚洲自偷精品视频自拍 | 激情内射亚州一区二区三区爱妻 | yw尤物av无码国产在线观看 | 国产成人精品久久亚洲高清不卡 | 俺去俺来也www色官网 | 色综合天天综合狠狠爱 | 久久久久免费精品国产 | 国产特级毛片aaaaaaa高清 | 东京热一精品无码av | 日日麻批免费40分钟无码 | 色五月五月丁香亚洲综合网 | 成年美女黄网站色大免费全看 | 亚洲欧美精品aaaaaa片 | 国产在线aaa片一区二区99 | 久久99精品国产麻豆蜜芽 | 最新国产麻豆aⅴ精品无码 | 国产精品视频免费播放 | 黑人巨大精品欧美一区二区 | 乱中年女人伦av三区 | 少女韩国电视剧在线观看完整 | 精品熟女少妇av免费观看 | 秋霞特色aa大片 | 图片区 小说区 区 亚洲五月 | 亚洲一区二区三区国产精华液 | 亚洲人成影院在线无码按摩店 | 女人被男人躁得好爽免费视频 | 午夜精品一区二区三区在线观看 | 久久精品人人做人人综合 | 中文字幕无码av激情不卡 | 午夜无码区在线观看 | 国产精华av午夜在线观看 | 人人澡人人妻人人爽人人蜜桃 | 亚洲精品综合一区二区三区在线 | 最近的中文字幕在线看视频 | 亚洲一区二区三区在线观看网站 | aa片在线观看视频在线播放 | 国产精品久久久久久久影院 | 日本精品人妻无码77777 天堂一区人妻无码 | 日韩精品一区二区av在线 | 激情内射亚州一区二区三区爱妻 | 亚洲日韩av一区二区三区四区 | 欧美怡红院免费全部视频 | 九九综合va免费看 | 中文精品无码中文字幕无码专区 | 天天摸天天碰天天添 | 精品 日韩 国产 欧美 视频 | 67194成是人免费无码 | 无码国产激情在线观看 | 老子影院午夜精品无码 | 精品亚洲韩国一区二区三区 | 无套内谢老熟女 | 色 综合 欧美 亚洲 国产 | 成年女人永久免费看片 | 亚洲色欲色欲天天天www | 精品国产一区二区三区四区在线看 | 精品国产成人一区二区三区 | 18黄暴禁片在线观看 | 国产精品高潮呻吟av久久4虎 | 亚洲人成网站在线播放942 | 色噜噜亚洲男人的天堂 | 国产精品国产三级国产专播 | 欧美三级a做爰在线观看 | 精品人妻av区 | 中文字幕乱码人妻二区三区 | 中文亚洲成a人片在线观看 | 97久久国产亚洲精品超碰热 | 亚洲人成无码网www | 女人被男人爽到呻吟的视频 | 一本色道久久综合狠狠躁 | 天天躁夜夜躁狠狠是什么心态 | 国产av一区二区精品久久凹凸 | 欧美丰满熟妇xxxx | 亚洲va欧美va天堂v国产综合 | 午夜精品一区二区三区在线观看 | 中文字幕精品av一区二区五区 | 人人妻人人澡人人爽欧美一区九九 | 999久久久国产精品消防器材 | 亚洲 高清 成人 动漫 | 国产精品无码mv在线观看 | 欧美老人巨大xxxx做受 | 色五月五月丁香亚洲综合网 | 97久久精品无码一区二区 | 人人澡人人妻人人爽人人蜜桃 | 亚洲国产精华液网站w | 中文精品无码中文字幕无码专区 | 国产精品va在线观看无码 | 欧美日韩在线亚洲综合国产人 | 欧美日韩一区二区免费视频 | 一本大道伊人av久久综合 | 中文字幕 人妻熟女 | 久久久久久久久蜜桃 | 欧美日韩综合一区二区三区 | 露脸叫床粗话东北少妇 | 免费观看的无遮挡av | 内射后入在线观看一区 | 波多野结衣aⅴ在线 | 亚洲精品久久久久久久久久久 | 午夜免费福利小电影 | 欧美日韩视频无码一区二区三 | 国产成人av免费观看 | 亚洲自偷自拍另类第1页 | 又粗又大又硬毛片免费看 | 色婷婷综合激情综在线播放 | 国产亚洲人成a在线v网站 | 香蕉久久久久久av成人 | 亚洲成a人片在线观看无码3d | 日日干夜夜干 | 娇妻被黑人粗大高潮白浆 | 国内揄拍国内精品少妇国语 | 久久国产劲爆∧v内射 | 久久亚洲精品成人无码 | 成人性做爰aaa片免费看 | 亚洲色无码一区二区三区 | 免费观看激色视频网站 | 亚洲国产精品无码一区二区三区 | 久久精品无码一区二区三区 | 久久久久国色av免费观看性色 | 亚洲 欧美 激情 小说 另类 | 色综合视频一区二区三区 | 黄网在线观看免费网站 | 亚洲精品一区二区三区在线 | 天堂在线观看www | 久久国产36精品色熟妇 | 午夜精品一区二区三区的区别 | 日本护士xxxxhd少妇 | 色狠狠av一区二区三区 | 色情久久久av熟女人妻网站 | 特级做a爰片毛片免费69 | 久久久久久亚洲精品a片成人 | 欧洲美熟女乱又伦 | 欧美xxxxx精品 | 亚洲乱亚洲乱妇50p | 久久亚洲精品成人无码 | 国产在线精品一区二区三区直播 | 国产精品无码mv在线观看 | 无码av免费一区二区三区试看 | 少妇邻居内射在线 | 狠狠综合久久久久综合网 | 欧美国产日产一区二区 | 人妻少妇精品视频专区 | 88国产精品欧美一区二区三区 | 亚洲精品国产品国语在线观看 | 久久99精品国产.久久久久 | а√天堂www在线天堂小说 | 久在线观看福利视频 | 无码av免费一区二区三区试看 | 国产乱人伦偷精品视频 | 对白脏话肉麻粗话av | 高潮毛片无遮挡高清免费 | 欧美日韩精品 | 黑人大群体交免费视频 | 亚洲精品成人av在线 | 国产精品丝袜黑色高跟鞋 | 一本久道高清无码视频 | 亚洲乱亚洲乱妇50p | 少妇性俱乐部纵欲狂欢电影 | 天堂无码人妻精品一区二区三区 | 国产精品美女久久久网av | 女人高潮内射99精品 | 日韩欧美成人免费观看 | 日日天日日夜日日摸 | 亚洲男人av香蕉爽爽爽爽 | 老熟女乱子伦 | 久久精品国产一区二区三区肥胖 | 成年美女黄网站色大免费全看 | 亚洲天堂2017无码中文 | 99久久精品日本一区二区免费 | 欧美性黑人极品hd | 丝袜 中出 制服 人妻 美腿 | 国产成人亚洲综合无码 | 在线精品亚洲一区二区 | 精品久久综合1区2区3区激情 | 亚洲精品国产精品乱码视色 | 免费人成在线视频无码 | 日韩av激情在线观看 | 无码吃奶揉捏奶头高潮视频 | 波多野结衣乳巨码无在线观看 | 欧美亚洲国产一区二区三区 | 国产精品国产自线拍免费软件 | 国产精品嫩草久久久久 | 国产精品亚洲五月天高清 | 成人欧美一区二区三区黑人 | 18无码粉嫩小泬无套在线观看 | 高清国产亚洲精品自在久久 | 午夜成人1000部免费视频 | 亚洲欧洲无卡二区视頻 | 日韩精品一区二区av在线 | 无码吃奶揉捏奶头高潮视频 | 特黄特色大片免费播放器图片 | 亚洲成在人网站无码天堂 | 青青青手机频在线观看 | 玩弄人妻少妇500系列视频 | 免费视频欧美无人区码 | 亚洲国产日韩a在线播放 | 最近的中文字幕在线看视频 | 人人爽人人澡人人高潮 | 久久99久久99精品中文字幕 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产情侣作爱视频免费观看 | 亚洲欧美精品aaaaaa片 | 色婷婷久久一区二区三区麻豆 | 亚洲欧美中文字幕5发布 | 狠狠综合久久久久综合网 | 日本熟妇大屁股人妻 | 人妻与老人中文字幕 | 久久久婷婷五月亚洲97号色 | 欧美人妻一区二区三区 | 日本乱人伦片中文三区 | 亚洲熟女一区二区三区 | 纯爱无遮挡h肉动漫在线播放 | 日韩欧美群交p片內射中文 | 日本一区二区更新不卡 | 亚洲人成无码网www | 久久人人97超碰a片精品 | 欧美精品免费观看二区 | 亚洲国产精品久久久天堂 | 色偷偷人人澡人人爽人人模 | 欧美肥老太牲交大战 | 国产成人人人97超碰超爽8 | 少妇无套内谢久久久久 | 国产特级毛片aaaaaa高潮流水 | 内射后入在线观看一区 | 秋霞特色aa大片 | 中文字幕人妻无码一夲道 | 偷窥日本少妇撒尿chinese | 欧美激情一区二区三区成人 | 免费看男女做好爽好硬视频 | 亚洲中文字幕乱码av波多ji | 精品久久久无码人妻字幂 | 国产精品自产拍在线观看 | 99久久精品国产一区二区蜜芽 | 国产亚洲精品久久久久久久 | 中文字幕 人妻熟女 | 少妇人妻大乳在线视频 | 欧美自拍另类欧美综合图片区 | 300部国产真实乱 | 亚洲一区二区观看播放 | 国产成人无码av在线影院 | 国产成人久久精品流白浆 | 性生交大片免费看女人按摩摩 | 波多野结衣一区二区三区av免费 | 少妇愉情理伦片bd | 欧美三级a做爰在线观看 | 国产卡一卡二卡三 | 亚洲综合久久一区二区 | 国产成人亚洲综合无码 | 少妇人妻av毛片在线看 | 成人亚洲精品久久久久软件 | 成人无码精品1区2区3区免费看 | 免费国产黄网站在线观看 | 国产另类ts人妖一区二区 | 欧洲精品码一区二区三区免费看 | 国产热a欧美热a在线视频 | 日产精品高潮呻吟av久久 | 久久无码中文字幕免费影院蜜桃 | 亚洲人成网站免费播放 | 午夜精品久久久内射近拍高清 | 狠狠色丁香久久婷婷综合五月 | 欧美激情内射喷水高潮 | 国产精品.xx视频.xxtv | 国产人妻精品一区二区三区 | 一区二区三区高清视频一 | 亚洲精品无码国产 | 久久国产自偷自偷免费一区调 | 国产成人精品久久亚洲高清不卡 | 少妇性荡欲午夜性开放视频剧场 | 国产国产精品人在线视 | 男人的天堂2018无码 | 精品欧美一区二区三区久久久 | 成人精品一区二区三区中文字幕 | 性色av无码免费一区二区三区 | 特黄特色大片免费播放器图片 | 久久国产精品偷任你爽任你 | 午夜嘿嘿嘿影院 | 99er热精品视频 | 中文字幕无码人妻少妇免费 | 久久国内精品自在自线 | 国产精品亚洲专区无码不卡 | 久久综合久久自在自线精品自 | 少妇无码av无码专区在线观看 | 中文字幕av无码一区二区三区电影 | 精品人妻人人做人人爽夜夜爽 | 国产精品免费大片 | 国内精品一区二区三区不卡 | 免费网站看v片在线18禁无码 | 丝袜人妻一区二区三区 | 99久久久无码国产aaa精品 | 漂亮人妻洗澡被公强 日日躁 | 欧美人与物videos另类 | 久久综合给久久狠狠97色 | 国産精品久久久久久久 | 精品无人区无码乱码毛片国产 | 福利一区二区三区视频在线观看 | 国产激情无码一区二区 | 伦伦影院午夜理论片 | 一区二区三区乱码在线 | 欧洲 | 中文字幕乱码中文乱码51精品 | 又大又硬又黄的免费视频 | 国产精品久久福利网站 | 香蕉久久久久久av成人 | 99精品久久毛片a片 | 无码国产色欲xxxxx视频 | 日韩欧美成人免费观看 | 国产精品丝袜黑色高跟鞋 | 麻豆果冻传媒2021精品传媒一区下载 | 国产亚洲精品久久久久久国模美 | 麻豆av传媒蜜桃天美传媒 | 久9re热视频这里只有精品 | 久9re热视频这里只有精品 | 亚洲国产精品无码久久久久高潮 | 亚洲中文字幕av在天堂 | 久久久久亚洲精品男人的天堂 | 三上悠亚人妻中文字幕在线 | 亚洲自偷自拍另类第1页 | 风流少妇按摩来高潮 | 少妇被黑人到高潮喷出白浆 | 亚洲精品综合五月久久小说 | 欧美亚洲日韩国产人成在线播放 | 国产口爆吞精在线视频 | 纯爱无遮挡h肉动漫在线播放 | 国产免费久久精品国产传媒 | 色诱久久久久综合网ywww | 日日噜噜噜噜夜夜爽亚洲精品 | 日本大乳高潮视频在线观看 | 男女超爽视频免费播放 | 国产精品亚洲lv粉色 | 中文字幕无码av激情不卡 | 中文字幕av伊人av无码av | 亚洲日本在线电影 | 无码帝国www无码专区色综合 | 国产熟妇另类久久久久 | 久激情内射婷内射蜜桃人妖 | 精品午夜福利在线观看 | 亚洲一区二区三区偷拍女厕 | 麻豆成人精品国产免费 | 伊在人天堂亚洲香蕉精品区 | 九一九色国产 | 午夜精品久久久内射近拍高清 | av无码久久久久不卡免费网站 | 真人与拘做受免费视频 | 国产又爽又猛又粗的视频a片 | 领导边摸边吃奶边做爽在线观看 | 久久亚洲精品中文字幕无男同 | 国产亲子乱弄免费视频 | 久久国产劲爆∧v内射 | 色欲久久久天天天综合网精品 | 熟妇人妻无码xxx视频 |