3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读

發(fā)布時間:2025/3/21 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Paper:《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

?

?

目錄

《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

Abstract

1. Introduction

2. Neural Networks as Relational Graphs

2.1. Message Exchange over Graphs

2.2. Fixed-width MLPs as Relational Graphs

2.3. General Neural Networks as Relational Graphs

3. Exploring Relational Graphs

3.1. Selection of Graph Measures

3.2. Design of Graph Generators

3.3. Controlling Computational Budget

4. Experimental Setup

4.1. Base Architectures

4.2. Exploration with Relational Graphs

5. Results

5.1. A Sweet Spot for Top Neural Networks

5.2. Neural Network Performance as a Smooth Function over Graph Measures

5.3. Consistency across Architectures

5.4. Quickly Identifying a Sweet Spot

5.5. Network Science and Neuroscience Connections

6. Related Work

7. Discussions

8. Conclusion

Acknowledgments


?

?

《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

原論文地址
https://arxiv.org/pdf/2007.06559.pdf
https://arxiv.org/abs/2007.06559

Comments:

ICML 2020

[Submitted on 13 Jul 2020]

Subjects:Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); Social and Information Networks (cs.SI); Machine Learning (stat.ML)
Cite as:arXiv:2007.06559?[cs.LG]
(or?arXiv:2007.06559v1?[cs.LG]?for this version)

?

Abstract

Neural networks are often represented as graphs of connections between neurons. However, despite their wide use, there is currently little understanding of the relationship between the graph structure of the neural network and its predictive performance. Here we systematically investigate how does the graph structure of neural networks affect their predictive performance. To this end, we develop a novel graph-based representation of neural networks called relational graph, where layers of neural network computation correspond to rounds of message exchange along the graph structure. Using this representation we show that: (1) a "sweet spot" of relational graphs leads to neural networks with significantly improved predictive performance; (2) neural network's performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph; (3) our findings are consistent across many different tasks and datasets; (4) the sweet spot can be identified efficiently; (5) top-performing neural networks have graph structure surprisingly similar to those of real biological neural networks. Our work opens new directions for the design of neural architectures and the understanding on neural networks in general.

神經網絡通常用神經元之間的連接圖來表示。然而,盡管它們被廣泛使用,目前人們對神經網絡的圖結構與其預測性能之間的關系知之甚少。在這里,我們系統(tǒng)地研究如何圖結構的神經網絡影響其預測性能。為此,我們開發(fā)了一種新的基于圖的神經網絡表示,稱為關系圖,其中神經網絡計算的層對應于沿著圖結構的消息交換輪數(shù)。利用這種表示法,我們證明:

  • (1)關系圖的“最佳點”可以顯著提高神經網絡的預測性能;
  • (2)神經網絡的性能近似為其關系圖的聚類系數(shù)和平均路徑長度的平滑函數(shù);
  • (3)我們的發(fā)現(xiàn)在許多不同的任務和數(shù)據(jù)集上是一致的;
  • (4)有效識別最佳點;
  • (5)性能最好的神經網絡具有與真實生物神經網絡驚人相似的圖結構。我們的工作為一般神經網絡的設計和理解開辟了新的方向。

?

?

1. Introduction

Deep neural networks consist of neurons organized into layers and connections between them. Architecture of a neural network can be captured by its “computational graph” where neurons are represented as nodes and directed edges link neurons in different layers. Such graphical representation demonstrates how the network passes and transforms the information from its input neurons, through hidden layers?all the way to the output neurons (McClelland et al., 1986). While it has been widely observed that performance of neural networks depends on their architecture (LeCun et al., 1998; Krizhevsky et al., 2012; Simonyan & Zisserman, 2015; Szegedy et al., 2015; He et al., 2016), there is currently little systematic understanding on the relation between a neural network’s accuracy and its underlying graph structure. This is especially important for the neural architecture search, which today exhaustively searches over all possible connectivity patterns (Ying et al., 2019). From this perspective, several open questions arise:

  • Is there a systematic link between the network structure and its predictive performance?
  • What are structural signatures of well-performing neural networks?
  • How do such structural signatures generalize across tasks and datasets?
  • Is there an efficient way to check whether a given neural network is promising or not?

Establishing such a relation is both scientifically and practically important because it would have direct consequences on designing more efficient and more accurate architectures. It would also inform the design of new hardware architectures that execute neural networks. Understanding the graph structures that underlie neural networks would also advance the science of deep learning.

However, establishing the relation between network architecture and its accuracy is nontrivial, because it is unclear how to map a neural network to a graph (and vice versa). The natural choice would be to use computational graph representation but it has many limitations: (1) lack of generality: Computational graphs are constrained by the allowed graph properties, e.g., these graphs have to be directed and acyclic (DAGs), bipartite at the layer level, and single-in-single-out at the network level (Xie et al., 2019). This limits the use of the rich tools developed for general graphs. (2) Disconnection with biology/neuroscience: Biological neural networks have a much richer and less templatized structure (Fornito et al., 2013). There are information exchanges, rather than just single-directional flows, in the brain networks (Stringer et al., 2018). Such biological or neurological models cannot be simply represented by directed acyclic graphs.

深層神經網絡由神經元組成,這些神經元被組織成層,并在層與層之間建立聯(lián)系。神經網絡的結構可以通過它的“計算圖”來捕獲,其中神經元被表示為節(jié)點,有向邊連接不同層次的神經元。這樣的圖形表示演示了網絡如何傳遞和轉換來自輸入神經元的信息,通過隱藏層一直到輸出神經元(McClelland et al., 1986)。雖然已廣泛觀察到神經網絡的性能取決于其結構(LeCun et al., 1998;Krizhevsky等,2012;Simonyan & Zisserman, 2015;Szegedy等,2015;對于神經網絡的精度與其底層圖結構之間的關系,目前尚無系統(tǒng)的認識。這對于神經結構搜索來說尤為重要,如今,神經結構搜索遍尋所有可能的連通性模式(Ying等人,2019)。從這個角度來看,幾個開放的問題出現(xiàn)了:

  • 網絡結構和它的預測性能之間是否有系統(tǒng)的聯(lián)系?
  • 性能良好的神經網絡的結構特征是什么?
  • 這種結構特征如何在任務和數(shù)據(jù)集之間泛化?
  • 有沒有一種有效的方法來檢查一個給定的神經網絡是否有前途?

建立這樣的關系在科學上和實踐上都很重要,因為它將直接影響到設計更高效、更精確的架構。它還將指導執(zhí)行神經網絡的新硬件架構的設計。理解神經網絡的圖形結構也將推進深度學習科學。

然而,建立網絡架構與其準確度之間的關系并非無關緊要,因為還不清楚如何將神經網絡映射到圖(反之亦然)。自然選擇是使用計算圖表示,但它有很多限制:(1)缺乏普遍性:計算圖被限制允許圖形屬性,例如,這些圖表必須指導和無環(huán)(無進取心的人),在層級別由兩部分構成的,single-in-single-out在網絡層(謝et al ., 2019)。這限制了為一般圖形開發(fā)的豐富工具的使用。(2)與生物學/神經科學的分離:生物神經網絡具有更豐富的、更少圣殿化的結構(Fornito et al., 2013)。大腦網絡中存在著信息交換,而不僅僅是單向流動(Stringer et al., 2018)。這樣的生物或神經模型不能簡單地用有向無環(huán)圖來表示。

Here we systematically study the relationship between the graph structure of a neural network and its predictive performance. We develop a new way of representing a neural network as a graph, which we call relational graph. Our?key insight is to focus on message exchange, rather than just on directed data flow. As a simple example, for a fixedwidth fully-connected layer, we can represent one input channel and one output channel together as a single node, and an edge in the relational graph represents the message exchange between the two nodes (Figure 1(a)). Under this formulation, using appropriate message exchange definition, we show that the relational graph can represent many types of neural network layers (a fully-connected layer, a convolutional layer, etc.), while getting rid of many constraints of computational graphs (such as directed, acyclic, bipartite, single-in-single-out). One neural network layer corresponds to one round of message exchange over a relational graph, and to obtain deep networks, we perform message exchange over the same graph for several rounds. Our new representation enables us to build neural networks that are richer and more diverse and analyze them using well-established tools of network science (Barabasi & Psfai ′ , 2016).

We then design a graph generator named WS-flex that allows us to systematically explore the design space of neural networks (i.e., relation graphs). Based on the insights from neuroscience, we characterize neural networks by the clustering coefficient and average path length of their relational graphs (Figure 1(c)). Furthermore, our framework is flexible and general, as we can translate relational graphs into diverse neural architectures, including Multilayer Perceptrons (MLPs), Convolutional Neural Networks (CNNs), ResNets, etc. with controlled computational budgets (Figure 1(d)).

本文系統(tǒng)地研究了神經網絡的圖結構與其預測性能之間的關系。我們提出了一種將神經網絡表示為圖的新方法,即關系圖。我們的重點是關注消息交換,而不僅僅是定向數(shù)據(jù)流。作為一個簡單的例子,對于固定寬度的全連接層,我們可以將一個輸入通道和一個輸出通道一起表示為單個節(jié)點,關系圖中的一條邊表示兩個節(jié)點之間的消息交換(圖1(a))。在此公式下,利用適當?shù)南⒔粨Q定義,我們表明關系圖可以表示多種類型的神經網絡層(全連通層、卷積層等),同時擺脫了計算圖的許多約束(如有向、無環(huán)、二部圖、單入單出)。一個神經網絡層對應于在關系圖上進行一輪消息交換,為了獲得深度網絡,我們在同一圖上進行幾輪消息交換。我們的新表示使我們能夠構建更加豐富和多樣化的神經網絡,并使用成熟的網絡科學工具對其進行分析(Barabasi & Psfai, 2016)。

然后我們設計了一個名為WS-flex的圖形生成器,它允許我們系統(tǒng)地探索神經網絡的設計空間。關系圖)?;谏窠浛茖W的見解,我們通過聚類系數(shù)和關系圖的平均路徑長度來描述神經網絡(圖1(c))。此外,我們的框架是靈活和通用的,因為我們可以將關系圖轉換為不同的神經結構,包括多層感知器(MLPs)、卷積神經網絡(CNNs)、ResNets等,并控制計算預算(圖1(d))。

Using standard image classification datasets CIFAR-10 and ImageNet, we conduct a systematic study on how the architecture of neural networks affects their predictive performance. We make several important empirical observations:

  • A “sweet spot” of relational graphs lead to neural net?works with significantly improved performance under controlled computational budgets (Section 5.1).
  • Neural network’s performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph. (Section 5.2).
  • Our findings are consistent across many architectures (MLPs, CNNs, ResNets, EfficientNet) and tasks (CIFAR-10, ImageNet) (Section 5.3).
  • The sweet spot can be identified efficiently. Identifying a sweet spot only requires a few samples of relational graphs and a few epochs of training (Section 5.4).
  • Well-performing neural networks have graph structure surprisingly similar to those of real biological neural networks (Section 5.5).

Our results have implications for designing neural network architectures, advancing the science of deep learning and improving our understanding of neural networks in general.

使用標準圖像分類數(shù)據(jù)集CIFAR-10和ImageNet,我們對神經網絡的結構如何影響其預測性能進行了系統(tǒng)研究。我們做了幾個重要的經驗觀察:

  • 關系圖的一個“最佳點”可以使神經網絡在受控的計算預算下顯著提高性能(第5.1節(jié))。
  • 神經網絡的性能近似于其聚類系數(shù)和關系圖平均路徑長度的平滑函數(shù)。(5.2節(jié))。
  • 我們的發(fā)現(xiàn)在許多體系結構(MLPs, CNNs, resnet, EfficientNet)和任務(ci遠-10,ImageNet)中是一致的(第5.3節(jié))。
  • 最佳點可以被有效地確定。確定一個最佳點只需要幾個關系圖的樣本和幾個時期的訓練(第5.4節(jié))。
  • 性能良好的神經網絡的圖形結構與真實的生物神經網絡驚人地相似(第5.5節(jié))。
  • 我們的研究結果對設計神經網絡架構、推進深度學習的科學以及提高我們對神經網絡的總體理解都有意義。

?

Figure 1: Overview of our approach. (a) A layer of a neural network can be viewed as a relational graph where we connect nodes that exchange messages. (b) More examples of neural network layers and relational graphs. (c) We explore the design space of relational graphs according to their graph measures, including average path length and clustering coefficient, where the complete graph corresponds to a fully-connected layer. (d) We translate these relational graphs to neural networks and study how their predictive performance depends on the graph measures of their corresponding relational graphs.

圖1:我們方法的概述。(a)神經網絡的一層可以看作是一個關系圖,在這里我們連接交換消息的節(jié)點。(b)神經網絡層和關系圖的更多例子。(c)我們根據(jù)關系圖的圖度量來探索關系圖的設計空間,包括平均路徑長度和聚類系數(shù),其中完全圖對應一個全連通層。我們將這些關系圖轉換為神經網絡,并研究它們的預測性能如何取決于對應關系圖的圖度量。

?

?

2. Neural Networks as Relational Graphs

To explore the graph structure of neural networks, we first introduce the concept of our relational graph representation and its instantiations. We demonstrate how our representation can capture diverse neural network architectures under a unified framework. Using the language of graph in the context of deep learning helps bring the two worlds together and establish a foundation for our study.

為了探討神經網絡的圖結構,我們首先介紹關系圖表示的概念及其實例。我們將演示如何在統(tǒng)一框架下捕獲不同的神經網絡架構。在深度學習的背景下使用graph語言有助于將這兩個世界結合起來,為我們的研究奠定基礎。

2.1. Message Exchange over Graphs

We start by revisiting the definition of a neural network from the graph perspective. We define a graph G = (V, E) by its node set V = {v1, ..., vn} and edge set E ? {(vi , vj )|vi , vj ∈ V}. We assume each node v has a node feature scalar/vector xv.
我們首先從圖的角度重新討論神經網絡的定義。通過圖G = (V, E)的節(jié)點集V = {v1,…, vn}和邊集E?{(vi, vj)|vi, vj∈V}。我們假設每個節(jié)點v有一個節(jié)點特征標量/向量xv。

Table 1: Diverse neural architectures expressed in the language of relational graphs. These architectures are usually implemented as complete relational graphs, while we systematically explore more graph structures for these architectures.

表1:用關系圖語言表示的各種神經結構。這些架構通常被實現(xiàn)為完整的關系圖,而我們系統(tǒng)地為這些架構探索更多的圖結構。

Figure 2: Example of translating a 4-node relational graph to a 4-layer 65-dim MLP. We highlight the message exchange for node x1. Using different definitions of xi , fi(·), AGG(·) and R (those defined in Table 1), relational graphs can be translated to diverse neural architectures.

圖2:將4節(jié)點關系圖轉換為4層65-dim MLP的示例。我們將重點介紹節(jié)點x1的消息交換。使用xi、fi(·)、AGG(·)和R(表1中定義的)的不同定義,關系圖可以轉換為不同的神經結構。

We call graph G a relational graph, when it is associated with message exchanges between neurons. Specifically, a message exchange is defined by a message function, whose input is a node’s feature and output is a message, and an aggregation function, whose input is a set of messages and output is the updated node feature. At each round of message exchange, each node sends messages to its neighbors, and aggregates incoming messages from its neighbors. Each message is transformed at each edge through a message function f(·), then they are aggregated at each node via an aggregation function AGG(·). Suppose we conduct R rounds of message exchange, then the r-th round of message exchange for a node v can be described as

Equation 1 provides a general definition for message exchange. In the remainder of this section, we discuss how this general message exchange definition can be instantiated as different neural architectures. We summarize the different instantiations in Table 1, and provide a concrete example of instantiating a 4-layer 65-dim MLP in Figure 2.

我們稱圖G為關系圖,當它與神經元之間的信息交換有關時。具體來說,消息交換由消息函數(shù)和聚合函數(shù)定義,前者的輸入是節(jié)點的特性,輸出是消息,后者的輸入是一組消息,輸出是更新后的節(jié)點特性。在每一輪消息交換中,每個節(jié)點向它的鄰居發(fā)送消息,并聚合從它的鄰居傳入的消息。每個消息通過消息函數(shù)f(·)在每個邊進行轉換,然后通過聚合函數(shù)AGG(·)在每個節(jié)點進行聚合。假設我們進行了R輪的消息交換,那么節(jié)點v的第R輪消息交換可以描述為

公式1提供了消息交換的一般定義。在本節(jié)的其余部分中,我們將討論如何將這個通用消息交換定義實例化為不同的神經結構。我們在表1中總結了不同的實例,并在圖2中提供了實例化4層65-dim MLP的具體示例。

?

2.2. Fixed-width MLPs as Relational Graphs

A Multilayer Perceptron (MLP) consists of layers of computation units (neurons), where each neuron performs a weighted sum over scalar inputs and outputs, followed by some non-linearity. Suppose the r-th layer of an MLP takes x (r) as input and x (r+1) as output, then a neuron computes:

一個多層感知器(MLP)由多層計算單元(神經元)組成,其中每個神經元執(zhí)行標量輸入和輸出的加權和,然后是一些非線性。假設MLP的第r層以x (r)為輸入,x (r+1)為輸出,則有一個神經元計算:

The above discussion reveals that a fixed-width MLP can be viewed as a complete relational graph with a special message exchange function. Therefore, a fixed-width MLP is a special case under a much more general model family, where the message function, aggregation function, and most importantly, the relation graph structure can vary.

This insight allows us to generalize fixed-width MLPs from using complete relational graph to any general relational graph G. Based on the general definition of message exchange in Equation 1, we have:

上面的討論表明,可以將固定寬度的MLP視為具有特殊消息交換功能的完整關系圖。因此,固定寬度的MLP是更為通用的模型系列中的一種特殊情況,其中消息函數(shù)、聚合函數(shù)以及最重要的關系圖結構可能會發(fā)生變化。

這使得我們可以將固定寬度MLPs從使用完全關系圖推廣到任何一般關系圖g。根據(jù)公式1中消息交換的一般定義,我們有:

?

2.3. General Neural Networks as Relational Graphs

The graph viewpoint in Equation 3 lays the foundation of representing fixed-width MLPs as relational graphs. In this?section, we discuss how we can further generalize relational graphs to general neural networks.

Variable-width MLPs as relational graphs. An important design consideration for general neural networks is that layer width often varies through out the network. For example, in CNNs, a common practice is to double the layer width (number of feature channels) after spatial down-sampling.

式3中的圖點為將定寬MLPs表示為關系圖奠定了基礎。在這一節(jié)中,我們將討論如何進一步將關系圖推廣到一般的神經網絡。

可變寬度MLPs作為關系圖。對于一般的神經網絡,一個重要的設計考慮是網絡的層寬經常是不同的。例如,在CNNs中,常用的做法是在空間下采樣后將層寬(特征通道數(shù))增加一倍。

Note that under this definition, the maximum number of nodes of a relational graph is bounded by the width of the narrowest layer in the corresponding neural network (since the feature dimension for each node must be at least 1).

注意,在這個定義下,關系圖的最大節(jié)點數(shù)以對應神經網絡中最窄層的寬度為界(因為每個節(jié)點的特征維數(shù)必須至少為1)。

Modern neural architectures as relational graphs. Finally, we generalize relational graphs to represent modern neural architectures with more sophisticated designs. For?example, to represent a ResNet (He et al., 2016), we keep the residual connections between layers unchanged. To represent neural networks with bottleneck transform (He et al., 2016), a relational graph alternatively applies message exchange with 3×3 and 1×1 convolution; similarly, in the efficient computing setup, the widely used separable convolution (Howard et al., 2017; Chollet, 2017) can be viewed as alternatively applying message exchange with 3×3 depth-wise convolution and 1×1 convolution.

Overall, relational graphs provide a general representation for neural networks. With proper definitions of node features and message exchange, relational graphs can represent diverse neural architectures, as is summarized in Table 1.

作為關系圖的現(xiàn)代神經結構。最后,我們推廣了關系圖,用更復雜的設計來表示現(xiàn)代神經結構。例如,為了表示ResNet (He et al., 2016),我們保持層之間的剩余連接不變。為了用瓶頸變換表示神經網絡(He et al., 2016),關系圖交替應用3×3和1×1卷積的消息交換;同樣,在高效的計算設置中,廣泛使用的可分離卷積(Howard et al., 2017;Chollet, 2017)可以看作是3×3深度卷積和1×1卷積交替應用消息交換。

總的來說,關系圖提供了神經網絡的一般表示。通過正確定義節(jié)點特性和消息交換,關系圖可以表示不同的神經結構,如表1所示。

?

3. Exploring Relational Graphs

In this section, we describe in detail how we design and explore the space of relational graphs defined in Section 2, in order to study the relationship between the graph structure of neural networks and their predictive performance. Three main components are needed to make progress: (1) graph measures that characterize graph structural properties, (2) graph generators that can generate diverse graphs, and (3) a way to control the computational budget, so that the differences in performance of different neural networks are due to their diverse relational graph structures.

在本節(jié)中,我們將詳細描述如何設計和探索第二節(jié)中定義的關系圖空間,以研究神經網絡的圖結構與其預測性能之間的關系。三個主要組件是需要取得進展:(1)圖的措施描述圖的結構性質,(2)圖形發(fā)生器,可以產生不同的圖表,和(3)一種方法來控制計算預算,以便不同神經網絡的性能的差異是由于各自不同的關系圖結構。

?

3.1. Selection of Graph Measures

Given the complex nature of graph structure, graph measures are often used to characterize graphs. In this paper, we focus on one global graph measure, average path length, and one local graph measure, clustering coefficient. Notably, these two measures are widely used in network science (Watts & Strogatz, 1998) and neuroscience (Sporns, 2003; Bassett & Bullmore, 2006). Specifically, average path length measures the average shortest path distance between any pair of nodes; clustering coefficient measures the proportion of edges between the nodes within a given node’s neighborhood, divided by the number of edges that could possibly exist between them, averaged over all the nodes. There are other graph measures that can be used for analysis, which are included in the Appendix.

由于圖結構的復雜性,圖測度通常被用來刻畫圖的特征。本文主要研究了一個全局圖測度,即平均路徑長度,和一個局部圖測度,即聚類系數(shù)。值得注意的是,這兩種方法在網絡科學(Watts & Strogatz, 1998)和神經科學(Sporns, 2003;巴西特和布爾莫爾,2006年)。具體來說,平均路徑長度度量任意對節(jié)點之間的平均最短路徑距離;聚類系數(shù)度量給定節(jié)點鄰域內節(jié)點之間的邊的比例,除以它們之間可能存在的邊的數(shù)量,平均到所有節(jié)點上。還有其他可以用于分析的圖表度量,包括在附錄中。

?

3.2. Design of Graph Generators

Given selected graph measures, we aim to generate diverse graphs that can cover a large span of graph measures, using a graph generator. However, such a goal requires careful generator designs: classic graph generators can only generate a limited class of graphs, while recent learning-based graph generators are designed to imitate given exemplar graphs (Kipf & Welling, 2017; Li et al., 2018b; You et al., 2018a;b; 2019a).

Limitations of existing graph generators. To illustrate the limitation of existing graph generators, we investigate the following classic graph generators: (1) Erdos-R ? enyi ′ (ER) model that can sample graphs with given node and edge number uniformly at random (Erdos & R ? enyi ′ , 1960); (2) Watts-Strogatz (WS) model that can generate graphs with small-world properties (Watts & Strogatz, 1998); (3) Barabasi-Albert (BA) model that can generate scale-free ′ graphs (Albert & Barabasi ′ , 2002); (4) Harary model that can generate graphs with maximum connectivity (Harary, 1962); (5) regular ring lattice graphs (ring graphs); (6) complete graphs. For all types of graph generators, we control the number of nodes to be 64, enumerate all possible discrete parameters and grid search over all continuous parameters of the graph generator. We generate 30 random graphs with different random seeds under each parameter setting. In total, we generate 486,000 WS graphs, 53,000 ER graphs, 8,000 BA graphs, 1,800 Harary graphs, 54 ring graphs and 1 complete graph (more details provided in the Appendix). In Figure 3, we can observe that graphs generated by those classic graph generators have a limited span in the space of average path length and clustering coefficient.

給定選定的圖度量,我們的目標是使用圖生成器生成能夠覆蓋大范圍圖度量的不同圖。然而,這樣的目標需要仔細的生成器設計:經典的圖形生成器只能生成有限的圖形類,而最近的基于學習的圖形生成器被設計用來模仿給定的范例圖形(Kipf & Welling, 2017;李等,2018b;You等,2018a;b;2019年)。

現(xiàn)有圖形生成器的局限性。為了說明現(xiàn)有圖生成器的限制,我們調查以下經典圖生成器:(1)可以隨機統(tǒng)一地用給定節(jié)點和邊數(shù)采樣圖的厄多斯-R圖表生成器(厄多斯& R他們是在1960年);(2)能夠生成具有小世界特性圖的Watts-Strogatz (WS)模型(Watts & Strogatz, 1998);(3) barabsi -Albert (BA)模型,可以生成無尺度的’圖(Albert & Barabasi, 2002);(4)可生成最大連通性圖的Harary模型(Harary, 1962);(5)正則環(huán)格圖(環(huán)圖);(6)完成圖表。對于所有類型的圖生成器,我們控制節(jié)點數(shù)為64,枚舉所有可能的離散參數(shù),并對圖生成器的所有連續(xù)參數(shù)進行網格搜索。我們在每個參數(shù)設置下生成30個帶有不同隨機種子的隨機圖??偣采?86,000個WS圖、53,000個ER圖、8,000個BA圖、1,800個Harary圖、54個環(huán)圖和1個完整圖(詳情見附錄)。在圖3中,我們可以看到經典的圖生成器生成的圖在平均路徑長度和聚類系數(shù)的空間中具有有限的跨度。

?

WS-flex graph generator. Here we propose the WS-flex graph generator that can generate graphs with a wide coverage of graph measures; notably, WS-flex graphs almost encompass all the graphs generated by classic random generators mentioned above, as is shown in Figure 3. WSflex generator generalizes WS model by relaxing the constraint that all the nodes have the same degree before random rewiring. Specifically, WS-flex generator is parametrized by node n, average degree k and rewiring probability p. The number of edges is determined as e = bn ? k/2c. Specifically, WS-flex generator first creates a ring graph where each node connects to be/nc neighboring nodes; then the generator randomly picks e mod n nodes and connects each node to one closest neighboring node; finally, all the edges are randomly rewired with probability p. We use WS-flex generator to smoothly sample within the space of clustering coefficient and average path length, then sub-sample 3942 graphs for our experiments, as is shown in Figure 1(c).WS-flex圖生成器。在這里,我們提出了WS-flex圖形生成器,它可以生成覆蓋范圍廣泛的圖形度量;值得注意的是,WS-flex圖幾乎包含了上面提到的經典隨機生成器生成的所有圖,如圖3所示。WSflex生成器是對WS模型的一般化,它放寬了隨機重新布線前所有節(jié)點具有相同程度的約束。具體來說,WS-flex生成器由節(jié)點n、平均度k和重新布線概率p參數(shù)化。邊的數(shù)量確定為e = bn?k/2c。具體來說,WS-flex生成器首先創(chuàng)建一個環(huán)圖,其中每個節(jié)點連接到be/nc相鄰節(jié)點;然后隨機選取e mod n個節(jié)點,將每個節(jié)點連接到一個最近的相鄰節(jié)點;最后,以概率p隨機重新連接所有的邊。我們使用WS-flex生成器在聚類系數(shù)和平均路徑長度的空間內平滑采樣,然后進行我們實驗的子樣本3942張圖,如圖1(c)所示。

?

?

3.3. Controlling Computational Budget

To compare the neural networks translated by these diverse graphs, it is important to ensure that all networks have approximately the same complexity, so that the differences in performance are due to their relational graph structures. We use FLOPS (# of multiply-adds) as the metric. We first compute the FLOPS of our baseline network instantiations (i.e. complete relational graph), and use them as the reference complexity in each experiment. As described in Section 2.3, a relational graph structure can be instantiated as a neural network with variable width, by partitioning dimensions or channels into disjoint set of node features. Therefore, we?can conveniently adjust the width of a neural network to match the reference complexity (within 0.5% of baseline FLOPS) without changing the relational graph structures. We provide more details in the Appendix.

?

為了比較由這些不同圖轉換的神經網絡,確保所有網絡具有近似相同的復雜性是很重要的,這樣性能上的差異是由于它們的關系圖結構造成的。我們使用FLOPS (number of multiply- added)作為度量標準。我們首先計算我們的基線網絡實例化的失敗(即完全關系圖),并使用它們作為每個實驗的參考復雜度。如2.3節(jié)所述,通過將維度或通道劃分為節(jié)點特征的不相交集,可以將關系圖結構實例化為寬度可變的神經網絡。因此,我們可以方便地調整神經網絡的寬度,以匹配參考復雜度(在基線失敗的0.5%以內),而不改變關系圖結構。我們在附錄中提供了更多細節(jié)。

?

4. Experimental Setup

Considering the large number of candidate graphs (3942 in total) that we want to explore, we first investigate graph structure of MLPs on the CIFAR-10 dataset (Krizhevsky, 2009) which has 50K training images and 10K validation images. We then further study the larger and more complex task of ImageNet classification (Russakovsky et al., 2015), which consists of 1K image classes, 1.28M training images and 50K validation images.

考慮到我們想要探索的候選圖數(shù)量很大(總共3942個),我們首先在CIFAR-10數(shù)據(jù)集(Krizhevsky, 2009)上研究MLPs的圖結構,該數(shù)據(jù)集有50K訓練圖像和10K驗證圖像。然后,我們進一步研究了更大、更復雜的ImageNet分類任務(Russakovsky et al., 2015),包括1K圖像類、1.28M訓練圖像和50K驗證圖像。

?

?

4.1. Base Architectures

For CIFAR-10 experiments, We use a 5-layer MLP with 512 hidden units as the baseline architecture. The input of the MLP is a 3072-d flattened vector of the (32×32×3) image, the output is a 10-d prediction. Each MLP layer has a ReLU non-linearity and a BatchNorm layer (Ioffe & Szegedy, 2015). We train the model for 200 epochs with batch size 128, using cosine learning rate schedule (Loshchilov & Hutter, 2016) with an initial learning rate of 0.1 (annealed to 0, no restarting). We train all MLP models with 5 different random seeds and report the averaged results.在CIFAR-10實驗中,我們使用一個5層的MLP和512個隱藏單元作為基線架構。MLP的輸入是(32×32×3)圖像的3072 d平坦向量,輸出是10 d預測。每個MLP層具有ReLU非線性和BatchNorm層(Ioffe & Szegedy, 2015)。我們使用余弦學習率計劃(Loshchilov & Hutter, 2016)訓練批量大小為128的200個epoch的模型,初始學習率為0.1(退火到0,不重新啟動)。我們用5種不同的隨機種子訓練所有的MLP模型,并報告平均結果。
For ImageNet experiments, we use three ResNet-family architectures, including (1) ResNet-34, which only consists of basic blocks of 3×3 convolutions (He et al., 2016); (2) ResNet-34-sep, a variant where we replace all 3×3 dense convolutions in ResNet-34 with 3×3 separable convolutions (Chollet, 2017); (3) ResNet-50, which consists of bottleneck blocks (He et al., 2016) of 1×1, 3×3, 1×1 convolutions. Additionally, we use EfficientNet-B0 architecture (Tan & Le, 2019) that achieves good performance in the small computation regime. Finally, we use a simple 8- layer CNN with 3×3 convolutions. The model has 3 stages with [64, 128, 256] hidden units. Stride-2 convolutions are used for down-sampling. The stem and head layers are?the same as a ResNet. We train all the ImageNet models for 100 epochs using cosine learning rate schedule with initial learning rate of 0.1. Batch size is 256 for ResNetfamily models and 512 for EfficientNet-B0. We train all ImageNet models with 3 random seeds and report the averaged performance. All the baseline architectures have a complete relational graph structure. The reference computational complexity is 2.89e6 FLOPS for MLP, 3.66e9 FLOPS for ResNet-34, 0.55e9 FLOPS for ResNet-34-sep, 4.09e9 FLOPS for ResNet-50, 0.39e9 FLOPS for EffcientNet-B0, and 0.17e9 FLOPS for 8-layer CNN. Training an MLP model roughly takes 5 minutes on a NVIDIA Tesla V100 GPU, and training a ResNet model on ImageNet roughly takes a day on 8 Tesla V100 GPUs with data parallelism. We provide more details in Appendix.在ImageNet實驗中,我們使用了三種resnet系列架構,包括(1)ResNet-34,它只包含3×3卷積的基本塊(He et al., 2016);(2) ResNet-34-sep,將ResNet-34中的所有3×3稠密卷積替換為3×3可分離卷積(Chollet, 2017);(3) ResNet-50,由1×1,3×3,1×1卷積的瓶頸塊(He et al., 2016)組成。此外,我們使用了efficiency - net - b0架構(Tan & Le, 2019),在小計算環(huán)境下取得了良好的性能。最后,我們使用一個簡單的8層CNN, 3×3卷積。模型有3個階段,隱含單元為[64,128,256]。Stride-2卷積用于下采樣。莖和頭層與ResNet相同。我們使用初始學習率為0.1的余弦學習率計劃對所有ImageNet模型進行100個epoch的訓練。批大小是256的ResNetfamily模型和512的效率網- b0。我們用3個隨機種子訓練所有的ImageNet模型,并報告平均性能。所有的基線架構都有一個完整的關系圖結構。MLP的參考計算復雜度是2.89e6失敗,ResNet-34的3.66e9失敗,ResNet-34-sep的0.55e9失敗,ResNet-50的4.09e9失敗,EffcientNet-B0的0.39e9失敗,8層CNN的0.17e9失敗。在NVIDIA Tesla V100 GPU上訓練一個MLP模型大約需要5分鐘,而在ImageNet上訓練一個ResNet模型大約需要一天,在8個Tesla V100 GPU上使用數(shù)據(jù)并行。我們在附錄中提供更多細節(jié)。

Figure 4: Key results. The computational budgets of all the experiments are rigorously controlled. Each visualized result is averaged over at least 3 random seeds. A complete graph with C = 1 and L = 1 (lower right corner) is regarded as the baseline. (a)(c) Graph measures vs. neural network performance. The best graphs significantly outperform the baseline complete graphs. (b)(d) Single graph measure vs. neural network performance. Relational graphs that fall within the given range are shown as grey points. The overall smooth function is indicated by the blue regression line. (e) Consistency across architectures. Correlations of the performance of the same set of 52 relational graphs when translated to different neural architectures are shown. (f) Summary of all the experiments. Best relational graphs (the red crosses) consistently outperform the baseline complete graphs across different settings. Moreover, we highlight the “sweet spots” (red rectangular regions), in which relational graphs are not statistically worse than the best relational graphs (bins with red crosses). Bin values of 5-layer MLP on CIFAR-10 are average over all the relational graphs whose C and L fall into the given bin

圖4:關鍵結果。所有實驗的計算預算都是嚴格控制的。每個可視化結果至少在3個隨機種子上取平均值。以C = 1, L = 1(右下角)的完整圖作為基線。(a)(c)圖形測量與神經網絡性能。最好的圖表明顯優(yōu)于基線完整的圖表。(b)(d)單圖測量與神經網絡性能。在給定范圍內的關系圖顯示為灰色點。整體平滑函數(shù)用藍色回歸線表示。(e)架構之間的一致性。當轉換到不同的神經結構時,同一組52個關系圖的性能的相關性被顯示出來。(f)總結所有實驗。在不同的設置中,最佳關系圖(紅色叉)的表現(xiàn)始終優(yōu)于基線完整圖。此外,我們強調了“甜蜜點”(紅色矩形區(qū)域),其中關系圖在統(tǒng)計上并不比最佳關系圖(紅色叉的箱子)差。CIFAR-10上5層MLP的Bin值是C和L屬于給定Bin的所有關系圖的平均值

?

4.2. Exploration with Relational Graphs

For all the architectures, we instantiate each sampled relational graph as a neural network, using the corresponding definitions outlined in Table 1. Specifically, we replace all the dense layers (linear layers, 3×3 and 1×1 convolution layers) with their relational graph counterparts. We leave?the input and output layer unchanged and keep all the other designs (such as down-sampling, skip-connections, etc.) intact. We then match the reference computational complexity for all the models, as discussed in Section 3.3.

對于所有的架構,我們使用表1中列出的相應定義將每個抽樣的關系圖實例化為一個神經網絡。具體來說,我們將所有的稠密層(線性層、3×3和1×1卷積層)替換為對應的關系圖。我們保持輸入和輸出層不變,并保持所有其他設計(如下采樣、跳接等)不變。然后我們匹配所有模型的參考計算復雜度,如3.3節(jié)所討論的。

For CIFAR-10 MLP experiments, we study 3942 sampled relational graphs of 64 nodes as described in Section 3.2. For ImageNet experiments, due to high computational cost, we sub-sample 52 graphs uniformly from the 3942 graphs. Since EfficientNet-B0 is a small model with a layer that has only 16 channels, we can not reuse the 64-node graphs sampled for other setups. We re-sample 48 relational graphs with 16 nodes following the same procedure in Section 3.

對于CIFAR-10 MLP實驗,我們研究了包含64個節(jié)點的3942個抽樣關系圖,如3.2節(jié)所述。在ImageNet實驗中,由于計算量大,我們從3942個圖中均勻地抽取52個圖。因為efficient - b0是一個只有16個通道的層的小模型,我們不能在其他設置中重用64節(jié)點圖。我們按照第3節(jié)中相同的步驟,對48個有16個節(jié)點的關系圖重新采樣。

?

?

5. Results

In this section, we summarize the results of our experiments and discuss our key findings. We collect top-1 errors for all the sampled relational graphs on different tasks and architectures, and also record the graph measures (average path length L and clustering coefficient C) for each sampled graph. We present these results as heat maps of graph measures vs. predictive performance (Figure 4(a)(c)(f)).

在本節(jié)中,我們將總結我們的實驗結果并討論我們的主要發(fā)現(xiàn)。我們收集了不同任務和架構上的所有抽樣關系圖的top-1錯誤,并記錄了每個抽樣圖的圖度量(平均路徑長度L和聚類系數(shù)C)。我們將這些結果作為圖表測量與預測性能的熱圖(圖4(a)(c)(f))。

?

5.1. A Sweet Spot for Top Neural Networks

Overall, the heat maps of graph measures vs. predictive performance (Figure 4(f)) show that there exist graph structures that can outperform the complete graph (the pixel on bottom right) baselines. The best performing relational graph can outperform the complete graph baseline by 1.4% top-1 error on CIFAR-10, and 0.5% to 1.2% for models on ImageNet. Notably, we discover that top-performing graphs tend to cluster into a sweet spot in the space defined by C and L (red rectangles in Figure 4(f)). We follow these steps to identify a sweet spot: (1) we downsample and aggregate the 3942 graphs in Figure 4(a) into a coarse resolution of 52 bins, where each bin records the performance of graphs that fall into the bin; (2) we identify the bin with best average performance (red cross in Figure 4(f)); (3) we conduct onetailed t-test over each bin against the best-performing bin, and record the bins that are not significantly worse than the best-performing bin (p-value 0.05 as threshold). The minimum area rectangle that covers these bins is visualized as a sweet spot. For 5-layer MLP on CIFAR-10, the sweet spot is C ∈ [0.10, 0.50], L ∈ [1.82, 2.75].總的來說,圖度量與預測性能的熱圖(圖4(f))表明,存在的圖結構可以超過整個圖(右下角的像素)基線。在CIFAR-10中,表現(xiàn)最好的關系圖的top-1誤差比整個圖基線高出1.4%,而在ImageNet中,模型的top-1誤差為0.5%到1.2%。值得注意的是,我們發(fā)現(xiàn)性能最好的圖往往聚集在C和L定義的空間中的一個最佳點(圖4(f)中的紅色矩形)。我們按照以下步驟來確定最佳點:(1)我們向下采樣并將圖4(a)中的3942個圖匯總為52個大致分辨率的bin,每個bin記錄落入bin的圖的性能;(2)我們確定平均性能最佳的bin(圖4(f)中的紅十字會);(3)對每個箱子與性能最好的箱子進行最小t檢驗,記錄性能不明顯差的箱子(p-value 0.05為閾值)。覆蓋這些箱子的最小面積矩形被可視化為一個甜點點。對于CIFAR-10上的5層MLP,最優(yōu)點C∈[0.10,0.50],L∈[1.82,2.75]。

?

5.2. Neural Network Performance as a Smooth Function over Graph Measures

In Figure 4(f), we observe that neural network’s predictive performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph. Keeping one graph measure fixed in a small range (C ∈ [0.4, 0.6], L ∈ [2, 2.5]), we visualize network performances against the other measure (shown in Figure 4(b)(d)). We use second degree polynomial regression to visualize the overall trend. We observe that both clustering coefficient and average path length are indicative of neural network performance, demonstrating a smooth U-shape correlation

在圖4(f)中,我們觀察到神經網絡的預測性能近似是其聚類系數(shù)和關系圖平均路徑長度的平滑函數(shù)。將一個圖度量固定在一個小范圍內(C∈[0.4,0.6],L∈[2,2.5]),我們將網絡性能與另一個度量進行可視化(如圖4(b)(d)所示)。我們使用二次多項式回歸來可視化總體趨勢。我們觀察到,聚類系數(shù)和平均路徑長度都是神經網絡性能的指標,呈平滑的u形相關

?

?

5.3. Consistency across Architectures

Figure 5: Quickly identifying a sweet spot. Left: The correlation between sweet spots identified using fewer samples of relational graphs and using all 3942 graphs. Right: The correlation between sweet spots identified at the intermediate training epochs and the final epoch (100 epochs).

圖5:快速確定最佳點。左圖:使用較少的關系圖樣本和使用全部3942幅圖識別出的甜點之間的相關性。右圖:中間訓練時期和最后訓練時期(100個時期)確定的甜蜜點之間的相關性。

Given that relational graph defines a shared design space across various neural architectures, we observe that relational graphs with certain graph measures may consistently perform well regardless of how they are instantiated.

Qualitative consistency. We visually observe in Figure 4(f) that the sweet spots are roughly consistent across different architectures. Specifically, if we take the union of the sweet spots across architectures, we have C ∈ [0.43, 0.50], L ∈ [1.82, 2.28] which is the consistent sweet spot across architectures. Moreover, the U-shape trends between graph measures and corresponding neural network performance, shown in Figure 4(b)(d), are also visually consistent.

Quantitative consistency. To further quantify this consistency across tasks and architectures, we select the 52 bins?in the heat map in Figure 4(f), where the bin value indicates the average performance of relational graphs whose graph measures fall into the bin range. We plot the correlation of the 52 bin values across different pairs of tasks, shown in Figure 4(e). We observe that the performance of relational graphs with certain graph measures correlates across different tasks and architectures. For example, even though a ResNet-34 has much higher complexity than a 5-layer MLP, and ImageNet is a much more challenging dataset than CIFAR-10, a fixed set relational graphs would perform similarly in both settings, indicated by a Pearson correlation of 0.658 (p-value < 10?8 ).

假設關系圖定義了跨各種神經結構的共享設計空間,我們觀察到,無論如何實例化,具有特定圖度量的關系圖都可以始終執(zhí)行得很好。

定性的一致性。在圖4(f)中,我們可以直觀地看到,不同架構之間的甜點點基本上是一致的。具體來說,如果我們取跨架構的甜蜜點的并集,我們有C∈[0.43,0.50],L∈[1.82,2.28],這是跨架構的一致的甜蜜點。此外,圖4(b)(d)所示的圖測度與對應的神經網絡性能之間的u形趨勢在視覺上也是一致的。

量化一致性。為了進一步量化跨任務和架構的一致性,我們在圖4(f)的熱圖中選擇了52個bin,其中bin值表示圖度量在bin范圍內的關系圖的平均性能。我們繪制52個bin值在不同任務對之間的相關性,如圖4(e)所示。我們觀察到,具有特定圖形的關系圖的性能度量了不同任務和架構之間的關聯(lián)。例如,盡管ResNet-34比5層MLP復雜得多,ImageNet是一個比ciremote -10更具挑戰(zhàn)性的數(shù)據(jù)集,一個固定的集合關系圖在兩種設置中表現(xiàn)相似,通過0.658的Pearson相關性表示(p值< 10?8)。

?

5.4. Quickly Identifying a Sweet Spot

Training thousands of relational graphs until convergence might be computationally prohibitive. Therefore, we quantitatively show that a sweet spot can be identified with much less computational cost, e.g., by sampling fewer graphs and training for fewer epochs.

How many graphs are needed? Using the 5-layer MLP on CIFAR-10 as an example, we consider the heat map over 52 bins in Figure 4(f) which is computed using 3942 graph samples. We investigate if a similar heat map can be produced with much fewer graph samples. Specifically, we sub-sample the graphs in each bin while making sure each bin has at least one graph. We then compute the correlation between the 52 bin values computed using all 3942 graphs and using sub-sampled fewer graphs, as is shown in Figure 5 (left). We can see that bin values computed using only 52 samples have a high 0.90 Pearson correlation with the bin values computed using full 3942 graph samples. This finding suggests that, in practice, much fewer graphs are needed to conduct a similar analysis.

訓練成千上萬的關系圖,直到運算上無法收斂為止。因此,我們定量地表明,可以用更少的計算成本來確定一個最佳點,例如,通過采樣更少的圖和訓練更少的epoch。

需要多少個圖?以CIFAR-10上的5層MLP為例,我們考慮圖4(f)中52個箱子上的熱圖,該熱圖使用3942個圖樣本計算。我們研究了是否可以用更少的圖表樣本制作類似的熱圖。具體來說,我們對每個容器中的圖進行子采樣,同時確保每個容器至少有一個圖。然后,我們計算使用所有3942圖和使用更少的次采樣圖計算的52個bin值之間的相關性,如圖5(左)所示。我們可以看到,僅使用52個樣本計算的bin值與使用全部3942個圖樣本計算的bin值有很高的0.90 Pearson相關性。這一發(fā)現(xiàn)表明,實際上,進行類似分析所需的圖表要少得多。

?

?

5.5. Network Science and Neuroscience Connections

Network science. The average path length that we measure characterizes how well information is exchanged across the network (Latora & Marchiori, 2001), which aligns with our definition of relational graph that consists of rounds of message exchange. Therefore, the U-shape correlation in Figure 4(b)(d) might indicate a trade-off between message exchange efficiency (Sengupta et al., 2013) and capability of learning distributed representations (Hinton, 1984). Neuroscience. The best-performing relational graph that we discover surprisingly resembles biological neural networks, as is shown in Table 2 and Figure 6. The similarities are in two-fold: (1) the graph measures (L and C) of top artificial neural networks are highly similar to biological neural networks; (2) with the relational graph representation, we can translate biological neural networks to 5-layer MLPs, and found that these networks also outperform the baseline complete graphs. While our findings are preliminary, our approach opens up new possibilities for interdisciplinary research in network science, neuroscience and deep learning.網絡科學。我們測量的平均路徑長度表征了信息在網絡中交換的良好程度(Latora & Marchiori, 2001),這與我們對包含輪消息交換的關系圖的定義一致。因此,圖4(b)(d)中的u形相關性可能表明消息交換效率(Sengupta et al., 2013)和學習分布式表示的能力(Hinton, 1984)之間的權衡。神經科學。我們發(fā)現(xiàn)的性能最好的關系圖與生物神經網絡驚人地相似,如表2和圖6所示。相似點有兩方面:
  • (1)top人工神經網絡的圖測度(L和C)與生物神經網絡高度相似;
  • (2)利用關系圖表示,我們可以將生物神經網絡轉換為5層MLPs,并發(fā)現(xiàn)這些網絡的性能也優(yōu)于基線完整圖。

雖然我們的發(fā)現(xiàn)還處于初步階段,但我們的方法為網絡科學、神經科學和深度學習領域的跨學科研究開辟了新的可能性。

?

6. Related Work

Neural network connectivity. The design of neural network connectivity patterns has been focused on computational graphs at different granularity: the macro structures, i.e. connectivity across layers (LeCun et al., 1998; Krizhevsky et al., 2012; Simonyan & Zisserman, 2015; Szegedy et al., 2015; He et al., 2016; Huang et al., 2017; Tan & Le, 2019), and the micro structures, i.e. connectivity within a layer (LeCun et al., 1998; Xie et al., 2017; Zhang et al., 2018; Howard et al., 2017; Dao et al., 2019; Alizadeh et al., 2019). Our current exploration focuses on the latter, but the same methodology can be extended to the macro space. Deep Expander Networks (Prabhu et al., 2018) adopt expander graphs to generate bipartite structures. RandWire (Xie et al., 2019) generates macro structures using existing graph generators. However, the statistical relationships between graph structure measures and network predictive performances were not explored in those works. Another related work is Cross-channel Communication Networks (Yang et al., 2019) which aims to encourage the neuron communication through message passing, where only a complete graph structure is considered.

神經網絡的連通性。神經網絡連通性模式的設計一直關注于不同粒度的計算圖:宏觀結構,即跨層連通性(LeCun et al., 1998;Krizhevsky等,2012;Simonyan & Zisserman, 2015;Szegedy等,2015;He et al., 2016;黃等,2017;Tan & Le, 2019)和微觀結構,即層內的連通性(LeCun et al., 1998;謝等,2017;張等,2018;Howard等人,2017;Dao等,2019年;Alizadeh等,2019)。我們目前的研究重點是后者,但同樣的方法可以擴展到宏觀空間。深度擴展器網絡(Prabhu et al., 2018)采用擴展器圖生成二部圖結構。RandWire (Xie等人,2019)使用現(xiàn)有的圖生成器生成宏結構。然而,圖結構測度與網絡預測性能之間的統(tǒng)計關系并沒有在這些工作中探索。另一項相關工作是跨通道通信網絡(Yang et al., 2019),旨在通過消息傳遞促進神經元通信,其中只考慮了完整的圖結構。

Neural architecture search. Efforts on learning the connectivity patterns at micro (Ahmed & Torresani, 2018; Wortsman et al., 2019; Yang et al., 2018), or macro (Zoph & Le, 2017; Zoph et al., 2018) level mostly focus on improving learning/search algorithms (Liu et al., 2018; Pham et al., 2018; Real et al., 2019; Liu et al., 2019). NAS-Bench101 (Ying et al., 2019) defines a graph search space by enumerating DAGs with constrained sizes (≤ 7 nodes, cf. 64-node graphs in our work). Our work points to a new path: instead of exhaustively searching over all the possible connectivity patterns, certain graph generators and graph measures could define a smooth space where the search cost could be significantly reduced.神經結構搜索。在micro學習連接模式的努力(Ahmed & Torresani, 2018;Wortsman等人,2019年;Yang et al., 2018),或macro (Zoph & Le, 2017;Zoph等,2018)水平主要關注于改進學習/搜索算法(Liu等,2018;Pham等人,2018年;Real等人,2019年;Liu等,2019)。NAS-Bench101 (Ying et al., 2019)通過枚舉大小受限的DAGs(≤7個節(jié)點,我們的工作cf. 64節(jié)點圖)來定義圖搜索空間。我們的工作指向了一個新的路徑:不再對所有可能的連通性模式進行窮舉搜索,某些圖生成器和圖度量可以定義一個平滑的空間,在這個空間中搜索成本可以顯著降低。

?

7. Discussions

Hierarchical graph structure of neural networks. As the first step in this direction, our work focuses on graph structures at the layer level. Neural networks are intrinsically hierarchical graphs (from connectivity of neurons to that of layers, blocks, and networks) which constitute a more complex design space than what is considered in this paper. Extensive exploration in that space will be computationally prohibitive, but we expect our methodology and findings to generalize.

Efficient implementation. Our current implementation uses standard CUDA kernels thus relies on weight masking, which leads to worse wall-clock time performance compared with baseline complete graphs. However, the practical adoption of our discoveries is not far-fetched. Complementary?to our work, there are ongoing efforts such as block-sparse kernels (Gray et al., 2017) and fast sparse ConvNets (Elsen et al., 2019) which could close the gap between theoretical FLOPS and real-world gains. Our work might also inform the design of new hardware architectures, e.g., biologicallyinspired ones with spike patterns (Pei et al., 2019).

神經網絡的層次圖結構。作為這個方向的第一步,我們的工作集中在層層次上的圖結構。神經網絡本質上是層次圖(從神經元的連通性到層、塊和網絡的連通性),它構成了比本文所考慮的更復雜的設計空間。在那個空間進行廣泛的探索在計算上是不可能的,但我們希望我們的方法和發(fā)現(xiàn)可以一般化。

高效的實現(xiàn)。我們目前的實現(xiàn)使用標準CUDA內核,因此依賴于weight masking,這導致wall-clock時間性能比基線完整圖更差。然而,實際應用我們的發(fā)現(xiàn)并不牽強。作為我們工作的補充,還有一些正在進行的工作,如塊稀疏核(Gray et al., 2017)和快速稀疏卷積網絡(Elsen et al., 2019),它們可以縮小理論失敗和現(xiàn)實收獲之間的差距。我們的工作也可能為新的硬件架構的設計提供信息,例如,受生物學啟發(fā)的帶有spike圖案的架構(Pei et al., 2019)。

Prior vs. Learning. We currently utilize the relational graph representation as a structural prior, i.e., we hard-wire the graph structure on neural networks throughout training. It has been shown that deep ReLU neural networks can automatically learn sparse representations (Glorot et al., 2011). A further question arises: without imposing graph priors, does any graph structure emerge from training a (fully-connected) neural network?

Figure 7: Prior vs. Learning. Results for 5-layer MLPs on CIFAR-10. We highlight the best-performing graph when used as a structural prior. Additionally, we train a fullyconnected MLP, and visualize the learned weights as a relational graph (different points are graphs under different thresholds). The learned graph structure moves towards the “sweet spot” after training but does not close the gap.

之前與學習。我們目前利用關系圖表示作為結構先驗,即。,在整個訓練過程中,我們將圖形結構硬連接到神經網絡上。已有研究表明,深度ReLU神經網絡可以自動學習稀疏表示(Glorot et al., 2011)。一個進一步的問題出現(xiàn)了:在不強加圖先驗的情況下,訓練一個(完全連接的)神經網絡會產生任何圖結構嗎?

?

?

?

?

?

?

?

?

圖7:先驗與學習。5層MLPs在CIFAR-10上的結果。當使用結構先驗時,我們會突出顯示表現(xiàn)最佳的圖。此外,我們訓練一個完全連接的MLP,并將學習到的權重可視化為一個關系圖(不同的點是不同閾值下的圖)。學習后的圖結構在訓練后向“最佳點”移動,但并沒有縮小差距。

As a preliminary exploration, we “reverse-engineer” a trained neural network and study the emerged relational graph structure. Specifically, we train a fully-connected 5-layer MLP on CIFAR-10 (the same setup as in previous experiments). We then try to infer the underlying relational graph structure of the network via the following steps: (1) to get nodes in a relational graph, we stack the weights from all the hidden layers and group them into 64 nodes, following the procedure described in Section 2.2; (2) to get undirected edges, the weights are summed by their transposes; (3) we compute the Frobenius norm of the weights as the edge value; (4) we get a sparse graph structure by binarizing edge values with a certain threshold.

We show the extracted graphs under different thresholds in Figure 7. As expected, the extracted graphs at initialization follow the patterns of E-R graphs (Figure 3(left)), since weight matrices are randomly i.i.d. initialized. Interestingly, after training to convergence, the extracted graphs are no longer E-R random graphs and move towards the sweet spot region we found in Section 5. Note that there is still a gap?between these learned graphs and the best-performing graph imposed as a structural prior, which might explain why a fully-connected MLP has inferior performance.

In our experiments, we also find that there are a few special cases where learning the graph structure can be superior (i.e., when the task is simple and the network capacity is abundant). We provide more discussions in the Appendix. Overall, these results further demonstrate that studying the graph structure of a neural network is crucial for understanding its predictive performance.

?

作為初步的探索,我們“逆向工程”一個訓練過的神經網絡和研究出現(xiàn)的關系圖結構。具體來說,我們在CIFAR-10上訓練了一個完全連接的5層MLP(與之前的實驗相同的設置)。然后嘗試通過以下步驟來推斷網絡的底層關系圖結構:(1)為了得到關系圖中的節(jié)點,我們將所有隱含層的權值進行疊加,并按照2.2節(jié)的步驟將其分組為64個節(jié)點;(2)對權值的轉置求和,得到無向邊;(3)計算權值的Frobenius范數(shù)作為邊緣值;(4)通過對具有一定閾值的邊值進行二值化,得到一種稀疏圖結構。

?

我們在圖7中顯示了在不同閾值下提取的圖。正如預期的那樣,初始化時提取的圖遵循E-R圖的模式(圖3(左)),因為權重矩陣是隨機初始化的。有趣的是,經過收斂訓練后,提取的圖不再是E-R隨機圖,而是朝著我們在第5節(jié)中發(fā)現(xiàn)的最佳點區(qū)域移動。請注意,在這些學習圖和作為結構先驗的最佳性能圖之間仍然存在差距,這可能解釋了為什么完全連接的MLP性能較差。

在我們的實驗中,我們也發(fā)現(xiàn)在一些特殊的情況下學習圖結構是更好的。當任務簡單且網絡容量充足時)。我們在附錄中提供了更多的討論??偟膩碚f,這些結果進一步證明了研究神經網絡的圖結構對于理解其預測性能是至關重要的。

?

?

Unified view of Graph Neural Networks (GNNs) and general neural architectures. The way we define neural networks as a message exchange function over graphs is partly inspired by GNNs (Kipf & Welling, 2017; Hamilton et al., 2017; Velickovi ˇ c et al. ′ , 2018). Under the relational graph representation, we point out that GNNs are a special class of general neural architectures where: (1) graph structure is regarded as the input instead of part of the neural architecture; consequently, (2) message functions are shared across all the edges to respect the invariance properties of the input graph. Concretely, recall how we define general neural networks as relational graphs:

Therefore, our work offers a unified view of GNNs and general neural architecture design, which we hope can bridge the two communities and inspire new innovations. On one hand, successful techniques in general neural architectures can be naturally introduced to the design of GNNs, such as separable convolution (Howard et al., 2017), group normalization (Wu & He, 2018) and Squeeze-and-Excitation block (Hu et al., 2018); on the other hand, novel GNN architectures (You et al., 2019b; Chen et al., 2019) beyond the commonly used paradigm (i.e., Equation 6) may inspire more advanced neural architecture designs.

圖形神經網絡(GNNs)和一般神經結構的統(tǒng)一視圖。我們將神經網絡定義為圖形上的信息交換功能的方式,部分受到了gnn的啟發(fā)(Kipf & Welling, 2017;Hamilton等,2017;Velickoviˇc et al .′, 2018)。在關系圖表示下,我們指出gnn是一類特殊的一般神經結構,其中:(1)將圖結構作為輸入,而不是神經結構的一部分;因此,(2)消息函數(shù)在所有邊之間共享,以尊重輸入圖的不變性。具體地說,回想一下我們是如何將一般的神經網絡定義為關系圖的:

因此,我們的工作提供了一個關于gnn和一般神經結構設計的統(tǒng)一觀點,我們希望能夠搭建這兩個社區(qū)的橋梁,激發(fā)新的創(chuàng)新。一方面,一般神經結構中的成功技術可以自然地引入到gnn的設計中,如可分離卷積(Howard et al., 2017)、群歸一化(Wu & He, 2018)和擠壓-激勵塊(Hu et al., 2018);另一方面,新的GNN架構(You et al., 2019b;陳等人,2019)超越了常用的范式(即,(6)可以啟發(fā)更先進的神經結構設計。

?

8. Conclusion

In sum, we propose a new perspective of using relational graph representation for analyzing and understanding neural networks. Our work suggests a new transition from studying conventional computation architecture to studying graph structure of neural networks. We show that well-established graph techniques and methodologies offered in other science disciplines (network science, neuroscience, etc.) could contribute to understanding and designing deep neural networks. We believe this could be a fruitful avenue of future research that tackles more complex situations.

最后,我們提出了一種利用關系圖表示來分析和理解神經網絡的新觀點。我們的工作提出了一個新的過渡,從研究傳統(tǒng)的計算結構到研究神經網絡的圖結構。我們表明,在其他科學學科(網絡科學、神經科學等)中提供的成熟的圖形技術和方法可以有助于理解和設計深度神經網絡。我們相信這將是未來解決更復雜情況的研究的一個富有成效的途徑。

?

Acknowledgments

This work is done during Jiaxuan You’s internship at Facebook AI Research. Jure Leskovec is a Chan Zuckerberg Biohub investigator. The authors thank Alexander Kirillov, Ross Girshick, Jonathan Gomes Selman, Pan Li for their helpful discussions.這項工作是在You Jiaxuan在Facebook AI Research實習期間完成的。Jure Leskovec是陳-扎克伯格生物中心的調查員。作者感謝Alexander Kirillov, Ross Girshick, Jonathan Gomes Selman和Pan Li的討論。

?

?

?

?

?

?

?

?

總結

以上是生活随笔為你收集整理的Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲爆乳精品无码一区二区三区 | 国产人妻久久精品二区三区老狼 | 久久久久国色av免费观看性色 | 久久久久亚洲精品男人的天堂 | 香蕉久久久久久av成人 | 四虎4hu永久免费 | 午夜福利试看120秒体验区 | 丝袜 中出 制服 人妻 美腿 | 无码纯肉视频在线观看 | 国产精品手机免费 | 国产成人精品一区二区在线小狼 | 亚洲а∨天堂久久精品2021 | 欧美刺激性大交 | 夜精品a片一区二区三区无码白浆 | 国产片av国语在线观看 | 国产尤物精品视频 | 国产精品国产三级国产专播 | 动漫av一区二区在线观看 | 毛片内射-百度 | 亚洲一区二区三区四区 | 大色综合色综合网站 | 日本www一道久久久免费榴莲 | 四虎国产精品一区二区 | 中文字幕无码人妻少妇免费 | 男人的天堂av网站 | 亚洲国产精品一区二区美利坚 | 亚洲国产精品一区二区第一页 | 乱人伦中文视频在线观看 | 大地资源网第二页免费观看 | 美女毛片一区二区三区四区 | 4hu四虎永久在线观看 | 高清不卡一区二区三区 | 国产后入清纯学生妹 | 88国产精品欧美一区二区三区 | 国产在线无码精品电影网 | 午夜性刺激在线视频免费 | 乌克兰少妇性做爰 | 99精品视频在线观看免费 | 思思久久99热只有频精品66 | 欧美肥老太牲交大战 | 亚洲 a v无 码免 费 成 人 a v | 88国产精品欧美一区二区三区 | 黑人大群体交免费视频 | 国产午夜手机精彩视频 | 中文字幕精品av一区二区五区 | 色一情一乱一伦一区二区三欧美 | 国产成人精品必看 | 精品乱子伦一区二区三区 | 日本熟妇大屁股人妻 | 成人无码视频在线观看网站 | 亚洲日本在线电影 | 国产精品亚洲lv粉色 | 久久国产精品偷任你爽任你 | 欧美日韩综合一区二区三区 | 永久免费观看国产裸体美女 | 奇米影视888欧美在线观看 | 精品厕所偷拍各类美女tp嘘嘘 | 人妻与老人中文字幕 | 欧美日韩人成综合在线播放 | 国产精品怡红院永久免费 | 午夜精品一区二区三区的区别 | 中文字幕乱码人妻无码久久 | 国产精品高潮呻吟av久久 | 99久久精品无码一区二区毛片 | 国产精品无码mv在线观看 | 无码一区二区三区在线 | 亚洲国产精品一区二区美利坚 | 精品一区二区不卡无码av | 久久久久99精品成人片 | 欧美兽交xxxx×视频 | 天堂无码人妻精品一区二区三区 | 偷窥日本少妇撒尿chinese | 天天燥日日燥 | 欧美兽交xxxx×视频 | 亚洲狠狠色丁香婷婷综合 | 国产内射爽爽大片视频社区在线 | 熟妇女人妻丰满少妇中文字幕 | 综合网日日天干夜夜久久 | 久久99精品国产麻豆蜜芽 | 国产精品成人av在线观看 | 欧美高清在线精品一区 | 国产精品99久久精品爆乳 | 亚洲狠狠婷婷综合久久 | 中文字幕精品av一区二区五区 | 精品无码国产自产拍在线观看蜜 | 亚洲欧美国产精品久久 | 国产美女极度色诱视频www | 又粗又大又硬又长又爽 | 成人免费视频视频在线观看 免费 | 99精品久久毛片a片 | 特黄特色大片免费播放器图片 | 久久久久国色av免费观看性色 | 人妻插b视频一区二区三区 | 亚洲精品美女久久久久久久 | 两性色午夜免费视频 | 中文字幕人成乱码熟女app | 少妇无套内谢久久久久 | 国内精品九九久久久精品 | 亚洲日本一区二区三区在线 | 日日干夜夜干 | 久久久精品国产sm最大网站 | 国产亚洲精品久久久久久久 | 午夜福利不卡在线视频 | 人妻有码中文字幕在线 | 2019nv天堂香蕉在线观看 | 国产成人人人97超碰超爽8 | 色一情一乱一伦一视频免费看 | 999久久久国产精品消防器材 | 少妇性l交大片欧洲热妇乱xxx | 午夜免费福利小电影 | 精品国产青草久久久久福利 | 7777奇米四色成人眼影 | aa片在线观看视频在线播放 | 国产成人一区二区三区别 | 欧美日韩色另类综合 | 国产农村乱对白刺激视频 | 无套内谢老熟女 | 日本一区二区三区免费播放 | www国产亚洲精品久久网站 | 免费国产成人高清在线观看网站 | 精品厕所偷拍各类美女tp嘘嘘 | 性欧美牲交在线视频 | 婷婷丁香六月激情综合啪 | 欧美国产日产一区二区 | 精品国产成人一区二区三区 | 国产成人无码av片在线观看不卡 | 亚洲区小说区激情区图片区 | 国产一区二区三区日韩精品 | 中国大陆精品视频xxxx | 性生交大片免费看女人按摩摩 | 国产手机在线αⅴ片无码观看 | 国产亚洲精品久久久闺蜜 | 中国女人内谢69xxxxxa片 | 亚洲色大成网站www国产 | 亚洲日韩av一区二区三区中文 | 国产免费久久精品国产传媒 | 99久久精品午夜一区二区 | 亚洲精品成a人在线观看 | 少妇人妻偷人精品无码视频 | 99久久精品无码一区二区毛片 | 国产成人一区二区三区在线观看 | 漂亮人妻洗澡被公强 日日躁 | 久久久亚洲欧洲日产国码αv | 97夜夜澡人人爽人人喊中国片 | 国产熟妇高潮叫床视频播放 | 欧洲欧美人成视频在线 | 夜先锋av资源网站 | 国产精品久久久久久亚洲影视内衣 | 日本免费一区二区三区最新 | 东京无码熟妇人妻av在线网址 | 性色欲网站人妻丰满中文久久不卡 | 中文字幕人成乱码熟女app | 国产无遮挡吃胸膜奶免费看 | 亚洲欧美国产精品专区久久 | 狠狠躁日日躁夜夜躁2020 | 麻花豆传媒剧国产免费mv在线 | 少妇被粗大的猛进出69影院 | 成人精品视频一区二区 | 亚洲啪av永久无码精品放毛片 | 1000部夫妻午夜免费 | 好男人社区资源 | 亚洲中文字幕久久无码 | 亚洲码国产精品高潮在线 | 亚洲中文字幕va福利 | 色综合久久久久综合一本到桃花网 | 一本久道久久综合婷婷五月 | 九九在线中文字幕无码 | 人人妻人人澡人人爽欧美一区九九 | 男女猛烈xx00免费视频试看 | 呦交小u女精品视频 | 精品国产乱码久久久久乱码 | 亚洲成熟女人毛毛耸耸多 | 国产成人精品视频ⅴa片软件竹菊 | 久久zyz资源站无码中文动漫 | 鲁大师影院在线观看 | 男女下面进入的视频免费午夜 | 精品国产福利一区二区 | 青青草原综合久久大伊人精品 | 99久久久无码国产精品免费 | 国产激情精品一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | √天堂资源地址中文在线 | 日本护士xxxxhd少妇 | 无码av岛国片在线播放 | aa片在线观看视频在线播放 | 欧美日韩视频无码一区二区三 | 狠狠色丁香久久婷婷综合五月 | 精品人妻中文字幕有码在线 | 性欧美疯狂xxxxbbbb | 成人无码视频免费播放 | 亚洲成a人一区二区三区 | 1000部啪啪未满十八勿入下载 | 久久久国产一区二区三区 | 强奷人妻日本中文字幕 | 鲁大师影院在线观看 | 狠狠色丁香久久婷婷综合五月 | 亚洲国产欧美日韩精品一区二区三区 | 少女韩国电视剧在线观看完整 | 巨爆乳无码视频在线观看 | 麻豆人妻少妇精品无码专区 | 日本xxxx色视频在线观看免费 | 激情五月综合色婷婷一区二区 | 亚洲欧美日韩国产精品一区二区 | 成人无码精品1区2区3区免费看 | 国产超碰人人爽人人做人人添 | 午夜理论片yy44880影院 | 国产精品福利视频导航 | 成人女人看片免费视频放人 | 永久黄网站色视频免费直播 | 5858s亚洲色大成网站www | 色 综合 欧美 亚洲 国产 | 国内精品一区二区三区不卡 | 欧美兽交xxxx×视频 | 欧美日韩人成综合在线播放 | 伊人久久大香线蕉亚洲 | 国产真实夫妇视频 | 日韩成人一区二区三区在线观看 | 国产97人人超碰caoprom | 男人扒开女人内裤强吻桶进去 | 伊人久久大香线蕉av一区二区 | 日日噜噜噜噜夜夜爽亚洲精品 | 一本色道婷婷久久欧美 | 久久精品女人天堂av免费观看 | 天堂а√在线中文在线 | 亚洲中文字幕成人无码 | 东京热一精品无码av | 亚洲va中文字幕无码久久不卡 | yw尤物av无码国产在线观看 | 国产av剧情md精品麻豆 | 免费无码的av片在线观看 | 在线观看免费人成视频 | 免费中文字幕日韩欧美 | 国产无遮挡吃胸膜奶免费看 | v一区无码内射国产 | 岛国片人妻三上悠亚 | 小sao货水好多真紧h无码视频 | 午夜福利试看120秒体验区 | 久热国产vs视频在线观看 | 久久www免费人成人片 | 成人av无码一区二区三区 | 亚洲欧美中文字幕5发布 | 国产高清av在线播放 | 无套内谢老熟女 | 日本va欧美va欧美va精品 | 成人女人看片免费视频放人 | 老司机亚洲精品影院无码 | 国产精品高潮呻吟av久久4虎 | 内射后入在线观看一区 | 97夜夜澡人人双人人人喊 | 成年女人永久免费看片 | 日本乱人伦片中文三区 | 亚洲成av人片天堂网无码】 | 国产特级毛片aaaaaaa高清 | 欧美一区二区三区 | 三上悠亚人妻中文字幕在线 | 少妇性l交大片欧洲热妇乱xxx | 精品无人区无码乱码毛片国产 | 久久国产精品偷任你爽任你 | 99久久99久久免费精品蜜桃 | 无码精品国产va在线观看dvd | 国产乱码精品一品二品 | 日本www一道久久久免费榴莲 | 装睡被陌生人摸出水好爽 | 中文字幕av日韩精品一区二区 | 精品无码一区二区三区的天堂 | 日韩av无码一区二区三区 | 999久久久国产精品消防器材 | 大屁股大乳丰满人妻 | 性做久久久久久久免费看 | 黑人巨大精品欧美一区二区 | 午夜福利一区二区三区在线观看 | 东京热男人av天堂 | 在线观看欧美一区二区三区 | 国产特级毛片aaaaaa高潮流水 | 亚洲国产精品一区二区美利坚 | 一二三四在线观看免费视频 | 色综合久久网 | 三级4级全黄60分钟 | 精品国产一区av天美传媒 | 大乳丰满人妻中文字幕日本 | 领导边摸边吃奶边做爽在线观看 | 国产成人无码av一区二区 | 亚洲精品一区二区三区四区五区 | 国产深夜福利视频在线 | 天海翼激烈高潮到腰振不止 | 国产成人综合色在线观看网站 | 精品人妻人人做人人爽夜夜爽 | 亚洲日本在线电影 | 欧美黑人乱大交 | 少女韩国电视剧在线观看完整 | 亚洲区小说区激情区图片区 | 巨爆乳无码视频在线观看 | 一本久道久久综合狠狠爱 | 日韩欧美中文字幕在线三区 | 国产成人一区二区三区在线观看 | 国产精品爱久久久久久久 | 亚洲自偷精品视频自拍 | 免费网站看v片在线18禁无码 | 亚洲精品久久久久久一区二区 | 国产人妖乱国产精品人妖 | 精品成在人线av无码免费看 | 国内精品人妻无码久久久影院 | 国产精品18久久久久久麻辣 | 久青草影院在线观看国产 | 国产三级精品三级男人的天堂 | 国产午夜亚洲精品不卡下载 | 国内揄拍国内精品少妇国语 | 永久免费观看美女裸体的网站 | 亚洲一区二区观看播放 | 欧美国产日韩亚洲中文 | 无码国产乱人伦偷精品视频 | 亚洲自偷自偷在线制服 | 荫蒂被男人添的好舒服爽免费视频 | 中国女人内谢69xxxx | 亚洲 欧美 激情 小说 另类 | 俺去俺来也www色官网 | 一本一道久久综合久久 | 欧美激情综合亚洲一二区 | 未满小14洗澡无码视频网站 | 国产精品无码mv在线观看 | 无码任你躁久久久久久久 | 久热国产vs视频在线观看 | 丁香花在线影院观看在线播放 | 天堂а√在线中文在线 | 大胆欧美熟妇xx | 少妇久久久久久人妻无码 | 久久久久国色av免费观看性色 | 色偷偷人人澡人人爽人人模 | 国产精品无套呻吟在线 | 久久久成人毛片无码 | 欧美老妇交乱视频在线观看 | 久久国产自偷自偷免费一区调 | 亚洲va欧美va天堂v国产综合 | 黑人大群体交免费视频 | 天堂一区人妻无码 | 99久久婷婷国产综合精品青草免费 | 亚洲欧洲日本无在线码 | 国产黑色丝袜在线播放 | 性色欲情网站iwww九文堂 | 欧洲极品少妇 | 97色伦图片97综合影院 | 97夜夜澡人人爽人人喊中国片 | 亚洲色欲久久久综合网东京热 | 免费国产黄网站在线观看 | 免费无码一区二区三区蜜桃大 | 精品一区二区不卡无码av | 久久久久亚洲精品中文字幕 | 性开放的女人aaa片 | 久久精品女人的天堂av | 久久久久免费看成人影片 | 无码播放一区二区三区 | 88国产精品欧美一区二区三区 | 中文字幕乱码亚洲无线三区 | 日本一卡2卡3卡四卡精品网站 | 色婷婷欧美在线播放内射 | 麻豆md0077饥渴少妇 | 娇妻被黑人粗大高潮白浆 | 黑人玩弄人妻中文在线 | 99麻豆久久久国产精品免费 | 欧美人与禽猛交狂配 | 婷婷丁香五月天综合东京热 | 又大又硬又黄的免费视频 | 欧美大屁股xxxxhd黑色 | av无码电影一区二区三区 | 日本又色又爽又黄的a片18禁 | 国产亚洲精品精品国产亚洲综合 | aⅴ亚洲 日韩 色 图网站 播放 | 色噜噜亚洲男人的天堂 | 国产网红无码精品视频 | 色综合久久久无码中文字幕 | 丰腴饱满的极品熟妇 | 在线a亚洲视频播放在线观看 | 亚洲一区av无码专区在线观看 | 99久久婷婷国产综合精品青草免费 | 国产成人精品必看 | 久久综合九色综合欧美狠狠 | 亚洲欧美综合区丁香五月小说 | 国产又粗又硬又大爽黄老大爷视 | 无码人妻久久一区二区三区不卡 | 奇米影视7777久久精品 | 麻豆成人精品国产免费 | 久久无码中文字幕免费影院蜜桃 | 红桃av一区二区三区在线无码av | 国内揄拍国内精品少妇国语 | 国产精品国产自线拍免费软件 | 亚洲精品美女久久久久久久 | 亚洲人成网站色7799 | 国产一区二区三区日韩精品 | 亚洲呦女专区 | 国产精品沙发午睡系列 | 天天躁夜夜躁狠狠是什么心态 | 欧美性生交活xxxxxdddd | 精品夜夜澡人妻无码av蜜桃 | 久青草影院在线观看国产 | 伊人色综合久久天天小片 | 中文字幕无码av激情不卡 | 日本熟妇浓毛 | 国产片av国语在线观看 | 十八禁视频网站在线观看 | 玩弄中年熟妇正在播放 | 狂野欧美激情性xxxx | 亚洲呦女专区 | 亚洲毛片av日韩av无码 | 最近免费中文字幕中文高清百度 | 国产精品久久久久9999小说 | 成人无码影片精品久久久 | 熟妇人妻中文av无码 | 日产国产精品亚洲系列 | 丰满人妻被黑人猛烈进入 | 老太婆性杂交欧美肥老太 | 无码av中文字幕免费放 | 国产婷婷色一区二区三区在线 | 日韩无套无码精品 | 无码人妻精品一区二区三区下载 | 精品久久久久久人妻无码中文字幕 | 日本精品少妇一区二区三区 | 四虎4hu永久免费 | 乱人伦人妻中文字幕无码 | 亚洲乱码中文字幕在线 | 午夜福利一区二区三区在线观看 | 国产免费无码一区二区视频 | 日本一卡2卡3卡四卡精品网站 | 国产av久久久久精东av | 乱人伦中文视频在线观看 | 国产av剧情md精品麻豆 | 精品国产国产综合精品 | 亚洲日韩中文字幕在线播放 | 国产激情综合五月久久 | 亚洲另类伦春色综合小说 | 久久综合给久久狠狠97色 | 5858s亚洲色大成网站www | 老太婆性杂交欧美肥老太 | 国产69精品久久久久app下载 | 亚洲爆乳无码专区 | 人人妻在人人 | 国产在线精品一区二区高清不卡 | 久久精品视频在线看15 | 漂亮人妻洗澡被公强 日日躁 | 窝窝午夜理论片影院 | 99精品国产综合久久久久五月天 | 骚片av蜜桃精品一区 | 日本大乳高潮视频在线观看 | 国内揄拍国内精品人妻 | 强辱丰满人妻hd中文字幕 | 亚洲国产精品无码久久久久高潮 | 亚洲精品久久久久久一区二区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 无码人妻丰满熟妇区五十路百度 | 麻豆人妻少妇精品无码专区 | 亚洲色欲色欲天天天www | 4hu四虎永久在线观看 | 亚洲中文字幕在线无码一区二区 | 亚洲精品国产第一综合99久久 | 激情五月综合色婷婷一区二区 | 成熟人妻av无码专区 | 国产亚洲日韩欧美另类第八页 | 无码成人精品区在线观看 | 午夜成人1000部免费视频 | 少妇的肉体aa片免费 | 亚洲精品www久久久 | 国产成人精品视频ⅴa片软件竹菊 | 熟女少妇人妻中文字幕 | 精品国产一区二区三区av 性色 | 国产卡一卡二卡三 | 成熟人妻av无码专区 | 玩弄中年熟妇正在播放 | 无码一区二区三区在线 | 男女性色大片免费网站 | 中文精品无码中文字幕无码专区 | 精品人妻人人做人人爽夜夜爽 | 四虎影视成人永久免费观看视频 | 成人欧美一区二区三区黑人免费 | 内射巨臀欧美在线视频 | 大地资源中文第3页 | 国产精品无码一区二区三区不卡 | 日本爽爽爽爽爽爽在线观看免 | 97无码免费人妻超级碰碰夜夜 | 7777奇米四色成人眼影 | 丰腴饱满的极品熟妇 | 亚洲欧美精品伊人久久 | 无码精品国产va在线观看dvd | 丰满岳乱妇在线观看中字无码 | 免费网站看v片在线18禁无码 | 漂亮人妻洗澡被公强 日日躁 | 少妇性l交大片欧洲热妇乱xxx | 红桃av一区二区三区在线无码av | 精品无码成人片一区二区98 | 少妇性俱乐部纵欲狂欢电影 | 国产午夜福利100集发布 | 色婷婷av一区二区三区之红樱桃 | 蜜桃无码一区二区三区 | 人人超人人超碰超国产 | 水蜜桃av无码 | 国产人妻人伦精品1国产丝袜 | 亚洲国产精华液网站w | 免费观看激色视频网站 | 曰韩少妇内射免费播放 | 国产成人久久精品流白浆 | 色综合久久久无码中文字幕 | 99视频精品全部免费免费观看 | 亚洲欧洲中文日韩av乱码 | 国产真实夫妇视频 | 婷婷丁香五月天综合东京热 | 2020久久香蕉国产线看观看 | 国产偷抇久久精品a片69 | 亚洲日韩av一区二区三区四区 | 亚洲成av人在线观看网址 | 国产另类ts人妖一区二区 | 国产午夜手机精彩视频 | 成人一区二区免费视频 | 任你躁在线精品免费 | 久久久久久a亚洲欧洲av冫 | 无码人妻出轨黑人中文字幕 | 精品人妻人人做人人爽 | 免费播放一区二区三区 | 亚洲一区av无码专区在线观看 | 亚洲成色www久久网站 | 熟妇女人妻丰满少妇中文字幕 | 亚洲 高清 成人 动漫 | 巨爆乳无码视频在线观看 | 无码av最新清无码专区吞精 | 中文字幕亚洲情99在线 | 国产午夜精品一区二区三区嫩草 | 国产激情综合五月久久 | 国产精品丝袜黑色高跟鞋 | 色婷婷综合中文久久一本 | 欧美35页视频在线观看 | 亚洲阿v天堂在线 | 国内精品九九久久久精品 | 亚洲国产欧美在线成人 | 欧美xxxx黑人又粗又长 | 日本一卡2卡3卡四卡精品网站 | 国产香蕉尹人视频在线 | 国产午夜亚洲精品不卡 | 欧美丰满少妇xxxx性 | 99久久婷婷国产综合精品青草免费 | 久久久久久亚洲精品a片成人 | 国产偷国产偷精品高清尤物 | 亚洲一区二区三区播放 | 丰满岳乱妇在线观看中字无码 | а√天堂www在线天堂小说 | 免费无码肉片在线观看 | 国产乱人伦av在线无码 | 人人妻人人澡人人爽欧美精品 | 久久国产精品精品国产色婷婷 | 久久亚洲国产成人精品性色 | 久久精品女人的天堂av | 欧美性猛交内射兽交老熟妇 | av无码久久久久不卡免费网站 | 色综合久久网 | 亚洲第一无码av无码专区 | 波多野结衣av一区二区全免费观看 | 高潮喷水的毛片 | 国产成人综合色在线观看网站 | 国产电影无码午夜在线播放 | 丰满护士巨好爽好大乳 | 欧美刺激性大交 | 亚洲性无码av中文字幕 | a国产一区二区免费入口 | 日本护士xxxxhd少妇 | 亚洲成a人片在线观看日本 | 欧美freesex黑人又粗又大 | 精品国产一区二区三区四区 | 无码国产色欲xxxxx视频 | 亚洲欧美中文字幕5发布 | 无码人中文字幕 | 亚洲精品国偷拍自产在线观看蜜桃 | 日韩成人一区二区三区在线观看 | 亚洲成av人影院在线观看 | 人妻夜夜爽天天爽三区 | 日日摸夜夜摸狠狠摸婷婷 | 欧洲精品码一区二区三区免费看 | 亚洲精品无码国产 | 久久国产精品_国产精品 | 男女猛烈xx00免费视频试看 | 秋霞成人午夜鲁丝一区二区三区 | 蜜桃视频韩日免费播放 | 亚洲日韩一区二区三区 | 国产成人无码a区在线观看视频app | 激情爆乳一区二区三区 | 黄网在线观看免费网站 | 精品人妻中文字幕有码在线 | 午夜不卡av免费 一本久久a久久精品vr综合 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产色在线 | 国产 | 日韩 欧美 动漫 国产 制服 | 精品乱子伦一区二区三区 | 97久久国产亚洲精品超碰热 | 无码任你躁久久久久久久 | www成人国产高清内射 | 300部国产真实乱 | 思思久久99热只有频精品66 | 99久久99久久免费精品蜜桃 | 大色综合色综合网站 | 兔费看少妇性l交大片免费 | 亚洲啪av永久无码精品放毛片 | 伊人久久大香线蕉午夜 | 在教室伦流澡到高潮hnp视频 | 国产va免费精品观看 | 成人一在线视频日韩国产 | 少妇高潮喷潮久久久影院 | 最新版天堂资源中文官网 | 精品久久8x国产免费观看 | 一个人免费观看的www视频 | 亚洲综合伊人久久大杳蕉 | 最近的中文字幕在线看视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产亚洲精品久久久久久国模美 | 久久精品国产一区二区三区肥胖 | 亚洲精品一区二区三区婷婷月 | 中文字幕人妻丝袜二区 | 国产午夜无码精品免费看 | 99久久人妻精品免费一区 | 国产精品嫩草久久久久 | 精品人妻中文字幕有码在线 | √天堂资源地址中文在线 | 真人与拘做受免费视频一 | 日本xxxx色视频在线观看免费 | 内射爽无广熟女亚洲 | 日本一卡二卡不卡视频查询 | 国产午夜亚洲精品不卡下载 | 青春草在线视频免费观看 | aa片在线观看视频在线播放 | 亚洲精品中文字幕 | 日本又色又爽又黄的a片18禁 | 无码国产乱人伦偷精品视频 | 老熟妇乱子伦牲交视频 | 亚洲а∨天堂久久精品2021 | 国产精品人人爽人人做我的可爱 | 自拍偷自拍亚洲精品被多人伦好爽 | 激情爆乳一区二区三区 | 又大又硬又爽免费视频 | 日本饥渴人妻欲求不满 | 亚洲国精产品一二二线 | 性生交片免费无码看人 | 伊人久久大香线蕉亚洲 | 无码午夜成人1000部免费视频 | 成人亚洲精品久久久久 | 麻豆国产97在线 | 欧洲 | 国产av一区二区三区最新精品 | 强奷人妻日本中文字幕 | 国产欧美熟妇另类久久久 | 麻豆果冻传媒2021精品传媒一区下载 | 国产xxx69麻豆国语对白 | 午夜精品久久久久久久久 | 六月丁香婷婷色狠狠久久 | 日本一卡2卡3卡四卡精品网站 | 国产97色在线 | 免 | 国产欧美亚洲精品a | 日本一区二区三区免费播放 | 日产精品99久久久久久 | 性生交大片免费看l | 麻花豆传媒剧国产免费mv在线 | 亚洲人成网站在线播放942 | 亚洲欧美国产精品专区久久 | 黑森林福利视频导航 | 一本大道久久东京热无码av | 精品夜夜澡人妻无码av蜜桃 | 青青久在线视频免费观看 | 国产无av码在线观看 | 精品水蜜桃久久久久久久 | 荫蒂被男人添的好舒服爽免费视频 | 国产热a欧美热a在线视频 | 亚洲日韩一区二区 | 国产精品人妻一区二区三区四 | 性啪啪chinese东北女人 | 午夜男女很黄的视频 | 国产办公室秘书无码精品99 | 人妻少妇被猛烈进入中文字幕 | 久久精品中文字幕一区 | 日日摸天天摸爽爽狠狠97 | 国产精品资源一区二区 | 一区二区传媒有限公司 | 天堂а√在线地址中文在线 | 欧美zoozzooz性欧美 | 亚洲精品国偷拍自产在线麻豆 | 任你躁在线精品免费 | 国产三级精品三级男人的天堂 | 女人被男人爽到呻吟的视频 | 国产精品久久久av久久久 | 精品无码一区二区三区爱欲 | www成人国产高清内射 | 妺妺窝人体色www在线小说 | 亚洲aⅴ无码成人网站国产app | 精品无人国产偷自产在线 | 女人被男人爽到呻吟的视频 | 丝袜人妻一区二区三区 | 97久久国产亚洲精品超碰热 | 国产va免费精品观看 | 少妇性l交大片欧洲热妇乱xxx | 天堂在线观看www | 四虎4hu永久免费 | 国产成人一区二区三区在线观看 | 偷窥日本少妇撒尿chinese | 人妻少妇被猛烈进入中文字幕 | 欧美乱妇无乱码大黄a片 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲欧美日韩成人高清在线一区 | 国产猛烈高潮尖叫视频免费 | 色一情一乱一伦一区二区三欧美 | 久久久精品人妻久久影视 | 国产明星裸体无码xxxx视频 | 六十路熟妇乱子伦 | 六十路熟妇乱子伦 | 日本精品人妻无码77777 天堂一区人妻无码 | 一本无码人妻在中文字幕免费 | 日韩人妻无码一区二区三区久久99 | 国产成人综合色在线观看网站 | 亚洲综合无码久久精品综合 | 久热国产vs视频在线观看 | 国产精品99爱免费视频 | 成人精品视频一区二区三区尤物 | 老太婆性杂交欧美肥老太 | 国产三级精品三级男人的天堂 | 亚洲日韩av一区二区三区中文 | 精品无码av一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 无遮无挡爽爽免费视频 | 国产精品亚洲五月天高清 | 欧美亚洲日韩国产人成在线播放 | 一二三四社区在线中文视频 | 色一情一乱一伦 | 激情内射日本一区二区三区 | 久久婷婷五月综合色国产香蕉 | 夜精品a片一区二区三区无码白浆 | 天天摸天天透天天添 | 亚洲精品美女久久久久久久 | 无码精品国产va在线观看dvd | 亚洲の无码国产の无码步美 | 少妇被黑人到高潮喷出白浆 | 强辱丰满人妻hd中文字幕 | 国内少妇偷人精品视频免费 | 久久久亚洲欧洲日产国码αv | 在线 国产 欧美 亚洲 天堂 | 狂野欧美激情性xxxx | 2020久久超碰国产精品最新 | 在线观看免费人成视频 | 久久久av男人的天堂 | 日日干夜夜干 | 欧美丰满老熟妇xxxxx性 | 亚洲人成无码网www | 成人无码视频在线观看网站 | 青草青草久热国产精品 | 欧美怡红院免费全部视频 | 亚洲中文字幕av在天堂 | 久久精品女人天堂av免费观看 | 成人无码精品1区2区3区免费看 | 国产成人无码一二三区视频 | 国产在线一区二区三区四区五区 | 久久99国产综合精品 | 国产艳妇av在线观看果冻传媒 | 亚洲精品国产品国语在线观看 | 图片区 小说区 区 亚洲五月 | 婷婷丁香五月天综合东京热 | 欧美野外疯狂做受xxxx高潮 | 精品成在人线av无码免费看 | 国产成人久久精品流白浆 | 中文字幕乱码中文乱码51精品 | 亚洲一区二区三区国产精华液 | 色五月丁香五月综合五月 | 亚洲成av人在线观看网址 | 久久99精品久久久久久动态图 | 亚洲gv猛男gv无码男同 | 亚洲熟妇色xxxxx亚洲 | 日日摸天天摸爽爽狠狠97 | 中国女人内谢69xxxxxa片 | 在线观看国产午夜福利片 | 亚洲熟女一区二区三区 | 国产午夜无码视频在线观看 | 成人片黄网站色大片免费观看 | 中文精品无码中文字幕无码专区 | 久久综合激激的五月天 | 色婷婷久久一区二区三区麻豆 | 午夜丰满少妇性开放视频 | 久久婷婷五月综合色国产香蕉 | 国产人妻精品一区二区三区不卡 | 亚洲成av人片在线观看无码不卡 | 亚洲区欧美区综合区自拍区 | 99久久精品国产一区二区蜜芽 | 性生交大片免费看女人按摩摩 | 99国产精品白浆在线观看免费 | 国产精品人人妻人人爽 | 久久久中文字幕日本无吗 | 东京无码熟妇人妻av在线网址 | 精品日本一区二区三区在线观看 | 97夜夜澡人人爽人人喊中国片 | 精品国产一区二区三区四区 | 国产精品-区区久久久狼 | 国产免费观看黄av片 | 日韩亚洲欧美中文高清在线 | 内射爽无广熟女亚洲 | 精品水蜜桃久久久久久久 | 荫蒂被男人添的好舒服爽免费视频 | 无码精品人妻一区二区三区av | 亚洲午夜福利在线观看 | 荫蒂被男人添的好舒服爽免费视频 | 国产网红无码精品视频 | 国产精品国产三级国产专播 | 国精产品一品二品国精品69xx | www成人国产高清内射 | 欧美性色19p | 丁香啪啪综合成人亚洲 | 国产精品久久久久久亚洲影视内衣 | 玩弄人妻少妇500系列视频 | 欧美老人巨大xxxx做受 | 无码av中文字幕免费放 | 国产性生大片免费观看性 | 亚洲欧美日韩成人高清在线一区 | 色一情一乱一伦一区二区三欧美 | 久久综合九色综合欧美狠狠 | 日日麻批免费40分钟无码 | 国产精品办公室沙发 | 狂野欧美性猛xxxx乱大交 | 国产一区二区三区精品视频 | 免费人成网站视频在线观看 | 国产精品18久久久久久麻辣 | 人妻天天爽夜夜爽一区二区 | 十八禁视频网站在线观看 | 精品久久久中文字幕人妻 | 国产精品久久国产精品99 | 狠狠色欧美亚洲狠狠色www | 亚洲综合精品香蕉久久网 | 欧美丰满熟妇xxxx | 亚洲人亚洲人成电影网站色 | 天天做天天爱天天爽综合网 | 亚洲精品国偷拍自产在线麻豆 | 麻豆国产人妻欲求不满 | 国产色视频一区二区三区 | 又大又硬又爽免费视频 | 久久国语露脸国产精品电影 | 人妻与老人中文字幕 | 久久国内精品自在自线 | 性啪啪chinese东北女人 | 国产精品国产自线拍免费软件 | 黄网在线观看免费网站 | 欧美日韩一区二区免费视频 | 欧美色就是色 | 在线а√天堂中文官网 | 麻豆国产人妻欲求不满 | 亚洲乱码国产乱码精品精 | 久久精品女人天堂av免费观看 | 午夜不卡av免费 一本久久a久久精品vr综合 | 中文字幕乱码亚洲无线三区 | 在线成人www免费观看视频 | 色婷婷综合激情综在线播放 | 久久久久久av无码免费看大片 | а天堂中文在线官网 | 中文字幕无码av波多野吉衣 | 亚洲精品久久久久中文第一幕 | 午夜丰满少妇性开放视频 | 日本一卡2卡3卡四卡精品网站 | 日本一卡二卡不卡视频查询 | 亚洲中文字幕在线无码一区二区 | 色妞www精品免费视频 | 日韩亚洲欧美精品综合 | 少妇一晚三次一区二区三区 | 中文字幕乱码人妻无码久久 | www国产亚洲精品久久网站 | 亚洲а∨天堂久久精品2021 | 成熟妇人a片免费看网站 | 中文字幕无码视频专区 | 午夜肉伦伦影院 | 色五月五月丁香亚洲综合网 | 玩弄中年熟妇正在播放 | 激情亚洲一区国产精品 | 久久精品国产99精品亚洲 | √天堂中文官网8在线 | 亚洲国产av美女网站 | 4hu四虎永久在线观看 | 国产亚洲精品久久久久久久久动漫 | 夜夜躁日日躁狠狠久久av | 色五月五月丁香亚洲综合网 | 国产精品二区一区二区aⅴ污介绍 | 18黄暴禁片在线观看 | 一本色道久久综合亚洲精品不卡 | 国产在线精品一区二区三区直播 | 亚洲天堂2017无码中文 | 丝袜 中出 制服 人妻 美腿 | 免费乱码人妻系列无码专区 | 最近免费中文字幕中文高清百度 | 最新国产乱人伦偷精品免费网站 | 精品国产青草久久久久福利 | 给我免费的视频在线观看 | 欧洲熟妇色 欧美 | 日韩人妻无码中文字幕视频 | 亚洲色无码一区二区三区 | 九九综合va免费看 | 国产热a欧美热a在线视频 | 亚洲欧美精品伊人久久 | 国产精品无码mv在线观看 | 玩弄中年熟妇正在播放 | 人人超人人超碰超国产 | 国产av久久久久精东av | 99久久婷婷国产综合精品青草免费 | 午夜无码区在线观看 | 亚洲热妇无码av在线播放 | 亚洲人成网站在线播放942 | 未满成年国产在线观看 | 97久久国产亚洲精品超碰热 | 美女毛片一区二区三区四区 | 国产熟妇高潮叫床视频播放 | 亚洲国产精品一区二区第一页 | 精品国产一区二区三区四区在线看 | 国模大胆一区二区三区 | 日欧一片内射va在线影院 | 又大又硬又爽免费视频 | 无码av岛国片在线播放 | 夜夜高潮次次欢爽av女 | 无码毛片视频一区二区本码 | 亚洲中文字幕久久无码 | 亚洲成av人在线观看网址 | 精品无码一区二区三区爱欲 | 日日橹狠狠爱欧美视频 | 亚洲爆乳精品无码一区二区三区 | 久久久婷婷五月亚洲97号色 | 午夜熟女插插xx免费视频 | 久久99精品久久久久婷婷 | 国産精品久久久久久久 | 天天躁日日躁狠狠躁免费麻豆 | 美女极度色诱视频国产 | 国产精品久久久久无码av色戒 | 欧美日韩一区二区免费视频 | 国产精品va在线观看无码 | 1000部夫妻午夜免费 | 在线成人www免费观看视频 | 领导边摸边吃奶边做爽在线观看 | 久久精品中文字幕一区 | 国产精品亚洲专区无码不卡 | 精品久久久无码人妻字幂 | 亚洲aⅴ无码成人网站国产app | 国产av一区二区精品久久凹凸 | 国语自产偷拍精品视频偷 | 精品国产一区二区三区四区 | 荡女精品导航 | 日韩av无码一区二区三区 | 51国偷自产一区二区三区 | 精品偷拍一区二区三区在线看 | 久久综合九色综合欧美狠狠 | 欧美熟妇另类久久久久久多毛 | 日本护士xxxxhd少妇 | 日本精品久久久久中文字幕 | 国产三级久久久精品麻豆三级 | 少妇无码av无码专区在线观看 | 天堂а√在线地址中文在线 | 无码av中文字幕免费放 | 欧美精品国产综合久久 | 97资源共享在线视频 | 亚洲国产av美女网站 | 亚洲国产综合无码一区 | 人妻体内射精一区二区三四 | 国产黄在线观看免费观看不卡 | 午夜时刻免费入口 | 国产偷国产偷精品高清尤物 | 黑人巨大精品欧美黑寡妇 | 亚洲国产欧美日韩精品一区二区三区 | 激情内射亚州一区二区三区爱妻 | 亚洲一区二区三区在线观看网站 | 18无码粉嫩小泬无套在线观看 | 欧美35页视频在线观看 | 熟妇人妻无码xxx视频 | 国产精品99爱免费视频 | 欧美 日韩 人妻 高清 中文 | 久久久久久国产精品无码下载 | 成年美女黄网站色大免费视频 | 午夜精品一区二区三区在线观看 | 九九久久精品国产免费看小说 | 日本又色又爽又黄的a片18禁 | 日本熟妇乱子伦xxxx | 真人与拘做受免费视频 | 精品人妻人人做人人爽 | 好爽又高潮了毛片免费下载 | 婷婷五月综合激情中文字幕 | 乌克兰少妇性做爰 | 日韩少妇内射免费播放 | 麻豆国产丝袜白领秘书在线观看 | 国产av久久久久精东av | 欧美日韩一区二区免费视频 | 亚洲乱码中文字幕在线 | 久久综合狠狠综合久久综合88 | 在线观看国产午夜福利片 | 一二三四在线观看免费视频 | 四十如虎的丰满熟妇啪啪 | 国产香蕉尹人综合在线观看 | 国产又爽又黄又刺激的视频 | 在教室伦流澡到高潮hnp视频 | 激情爆乳一区二区三区 | 国产精品久久久 | 色情久久久av熟女人妻网站 | 成人片黄网站色大片免费观看 | 欧美一区二区三区视频在线观看 | 亚洲午夜久久久影院 | 国产小呦泬泬99精品 | 精品一区二区三区无码免费视频 | 无码成人精品区在线观看 | 国内精品久久毛片一区二区 | 国精品人妻无码一区二区三区蜜柚 | 女高中生第一次破苞av | 亚洲综合另类小说色区 | 午夜福利试看120秒体验区 | 国产成人无码一二三区视频 | 在线看片无码永久免费视频 | 少妇无码av无码专区在线观看 | 精品人妻人人做人人爽夜夜爽 | 国产精品无码久久av | 欧美日韩色另类综合 | 久久99精品久久久久久 | 久久久精品成人免费观看 | 亚洲色大成网站www国产 | 亚洲一区二区三区四区 | 精品国偷自产在线 | 性色欲情网站iwww九文堂 | 国产激情综合五月久久 | 精品午夜福利在线观看 | 中文无码伦av中文字幕 | 激情内射日本一区二区三区 | 日本爽爽爽爽爽爽在线观看免 | 九九在线中文字幕无码 | 国产免费久久精品国产传媒 | 亚洲七七久久桃花影院 | a片免费视频在线观看 | 久青草影院在线观看国产 | 美女极度色诱视频国产 | 亚洲爆乳无码专区 | 亚洲综合无码久久精品综合 | 久久久精品成人免费观看 | 日本熟妇浓毛 | 色狠狠av一区二区三区 | 特黄特色大片免费播放器图片 | 久久精品女人的天堂av | 中文字幕无码免费久久99 | 男女下面进入的视频免费午夜 | 亚洲色在线无码国产精品不卡 | 小sao货水好多真紧h无码视频 | 夜先锋av资源网站 | 狠狠色噜噜狠狠狠7777奇米 | 亚洲熟女一区二区三区 | 成人片黄网站色大片免费观看 | a片免费视频在线观看 | 人妻有码中文字幕在线 | 国产亚洲欧美在线专区 | 伊人久久大香线蕉av一区二区 | 国内精品九九久久久精品 | 久久熟妇人妻午夜寂寞影院 | 亚洲国产欧美日韩精品一区二区三区 | 无码人妻久久一区二区三区不卡 | 亚洲最大成人网站 | 精品国产一区二区三区四区在线看 | 亚洲中文字幕无码中文字在线 | 久久久久人妻一区精品色欧美 | 国产熟女一区二区三区四区五区 | 东京一本一道一二三区 | 蜜桃视频韩日免费播放 | 久久久久亚洲精品中文字幕 | 精品成人av一区二区三区 | 亚洲综合久久一区二区 | 激情内射亚州一区二区三区爱妻 | 俺去俺来也在线www色官网 | 人妻天天爽夜夜爽一区二区 | 国产精品久久久久久亚洲影视内衣 | 国产农村乱对白刺激视频 | 国产成人午夜福利在线播放 | 日本又色又爽又黄的a片18禁 | 国产精品人人爽人人做我的可爱 | 国产农村乱对白刺激视频 | 欧美三级不卡在线观看 | 免费中文字幕日韩欧美 | 亚洲欧美综合区丁香五月小说 | 噜噜噜亚洲色成人网站 | 国产人妻精品一区二区三区不卡 | 人妻人人添人妻人人爱 | www一区二区www免费 | 大地资源网第二页免费观看 | 精品国产国产综合精品 | 久久国产精品萌白酱免费 | 少妇被黑人到高潮喷出白浆 | 国产艳妇av在线观看果冻传媒 | 国产精品无码永久免费888 | 成人一区二区免费视频 | 国产另类ts人妖一区二区 | 欧美肥老太牲交大战 | 国产精品国产自线拍免费软件 | 蜜桃臀无码内射一区二区三区 | 一二三四在线观看免费视频 | 高清无码午夜福利视频 | 国内揄拍国内精品少妇国语 | 国产乱人偷精品人妻a片 | 女高中生第一次破苞av | 国产亚洲人成a在线v网站 | 未满小14洗澡无码视频网站 | 精品国产成人一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 99久久精品日本一区二区免费 | 国产尤物精品视频 | 久久亚洲a片com人成 | 成人女人看片免费视频放人 | 无码福利日韩神码福利片 | 欧美第一黄网免费网站 | 日韩精品无码一本二本三本色 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲熟悉妇女xxx妇女av | 久久久久国色av免费观看性色 | 国精品人妻无码一区二区三区蜜柚 | 麻豆国产人妻欲求不满谁演的 | 美女黄网站人色视频免费国产 | 帮老师解开蕾丝奶罩吸乳网站 | 日本www一道久久久免费榴莲 | 亚洲国产精品久久久久久 | 亚洲狠狠色丁香婷婷综合 | 欧洲美熟女乱又伦 | 国内老熟妇对白xxxxhd | 欧美老熟妇乱xxxxx | 国产午夜亚洲精品不卡 | 丰满人妻翻云覆雨呻吟视频 | 九九综合va免费看 | 国产熟妇另类久久久久 | 性色欲情网站iwww九文堂 | 男女下面进入的视频免费午夜 | 性色欲网站人妻丰满中文久久不卡 | 国产综合在线观看 | 国内精品人妻无码久久久影院蜜桃 | 青青青爽视频在线观看 | 久久久久久九九精品久 | 久久久久人妻一区精品色欧美 | 香港三级日本三级妇三级 | 欧美性猛交内射兽交老熟妇 | 中文字幕精品av一区二区五区 | 水蜜桃av无码 | 日韩人妻无码一区二区三区久久99 | 亚洲中文字幕乱码av波多ji | 日韩精品一区二区av在线 | 丰满诱人的人妻3 | 四虎永久在线精品免费网址 | 激情亚洲一区国产精品 | 任你躁国产自任一区二区三区 | 欧美xxxx黑人又粗又长 | 欧美日韩一区二区三区自拍 | 国产在线精品一区二区高清不卡 | 亚洲精品无码人妻无码 | 亚洲精品国产第一综合99久久 | 日本一区二区三区免费高清 | 亚洲熟女一区二区三区 | 国产人妖乱国产精品人妖 | 强开小婷嫩苞又嫩又紧视频 | 亚洲一区二区三区香蕉 | 亚洲成av人片天堂网无码】 | 水蜜桃av无码 | 中文字幕乱妇无码av在线 | 日韩精品无码一区二区中文字幕 | 性啪啪chinese东北女人 | 日本乱人伦片中文三区 | 亚洲国产成人a精品不卡在线 | 国产真实乱对白精彩久久 | 任你躁国产自任一区二区三区 | 久久久久久av无码免费看大片 | 欧美成人免费全部网站 | 亚洲综合无码一区二区三区 | 婷婷色婷婷开心五月四房播播 | 久久综合九色综合欧美狠狠 | 狠狠色噜噜狠狠狠狠7777米奇 | 国产农村乱对白刺激视频 | 国产真实伦对白全集 | ass日本丰满熟妇pics | 无码人妻精品一区二区三区下载 | 亚洲日韩一区二区 | 色综合久久88色综合天天 | 精品国产福利一区二区 | 精品aⅴ一区二区三区 | 久久精品国产亚洲精品 | 亚洲成a人片在线观看无码3d | 亚洲色成人中文字幕网站 | 亚洲国产一区二区三区在线观看 | 水蜜桃av无码 | 少妇性l交大片 | 欧美激情一区二区三区成人 | 粉嫩少妇内射浓精videos | 色情久久久av熟女人妻网站 | 久久精品中文字幕一区 | 又紧又大又爽精品一区二区 | 亚洲精品鲁一鲁一区二区三区 | 99国产精品白浆在线观看免费 | 国产人妻人伦精品1国产丝袜 | 亚洲va中文字幕无码久久不卡 | 日韩亚洲欧美精品综合 | 亚洲熟女一区二区三区 | 成人一在线视频日韩国产 | 老司机亚洲精品影院 | 久久国产精品精品国产色婷婷 | 久久久久久亚洲精品a片成人 | 欧美人与禽zoz0性伦交 | 亚洲无人区一区二区三区 | 青草青草久热国产精品 | 亚洲精品一区二区三区在线观看 | 国产美女极度色诱视频www | 在线观看欧美一区二区三区 | 免费视频欧美无人区码 | 乱码午夜-极国产极内射 | 天干天干啦夜天干天2017 | 人人爽人人澡人人人妻 | 欧美老熟妇乱xxxxx | 香港三级日本三级妇三级 | 老太婆性杂交欧美肥老太 | 国产婷婷色一区二区三区在线 | 免费无码肉片在线观看 | 亚洲精品一区三区三区在线观看 | 国产一精品一av一免费 | 日日碰狠狠躁久久躁蜜桃 | 亚洲男人av天堂午夜在 | 亚洲日韩av片在线观看 | 国语自产偷拍精品视频偷 | 国产真人无遮挡作爱免费视频 | 美女极度色诱视频国产 | 欧美老妇交乱视频在线观看 | 天天躁夜夜躁狠狠是什么心态 | 欧美老妇与禽交 | 国产艳妇av在线观看果冻传媒 | 亚洲熟妇色xxxxx欧美老妇y | 少妇久久久久久人妻无码 | 性生交大片免费看l | 任你躁国产自任一区二区三区 | 久久国产劲爆∧v内射 | 亚洲精品综合一区二区三区在线 | 蜜桃臀无码内射一区二区三区 | 乱码av麻豆丝袜熟女系列 | 中文字幕无码日韩专区 | 免费无码av一区二区 | 亚洲爆乳精品无码一区二区三区 | 香蕉久久久久久av成人 | 免费国产黄网站在线观看 | 国产乱人伦av在线无码 | 国产精品人妻一区二区三区四 | 97久久国产亚洲精品超碰热 | 一个人免费观看的www视频 | 最近的中文字幕在线看视频 | 青青青爽视频在线观看 | 奇米影视7777久久精品 | 成人性做爰aaa片免费看不忠 | 无码一区二区三区在线观看 | 国产精品无码成人午夜电影 | 精品久久8x国产免费观看 | 男女爱爱好爽视频免费看 | 青青久在线视频免费观看 | 在线观看欧美一区二区三区 | 兔费看少妇性l交大片免费 | 男人和女人高潮免费网站 | 日本精品久久久久中文字幕 | 婷婷色婷婷开心五月四房播播 | 精品国产成人一区二区三区 | 东京无码熟妇人妻av在线网址 | 伦伦影院午夜理论片 | 亚洲国产精品无码一区二区三区 | 欧美野外疯狂做受xxxx高潮 | 真人与拘做受免费视频一 | 国产精品无套呻吟在线 | 天堂亚洲免费视频 | 亚洲精品一区三区三区在线观看 | 久久aⅴ免费观看 | 亚洲色偷偷偷综合网 | 久久99精品国产麻豆 | 性欧美videos高清精品 | 婷婷丁香五月天综合东京热 | 精品偷拍一区二区三区在线看 | 任你躁国产自任一区二区三区 | 国产成人无码av片在线观看不卡 | 成人亚洲精品久久久久 | 日本又色又爽又黄的a片18禁 | 中国女人内谢69xxxxxa片 | 国产人妖乱国产精品人妖 | 亚洲人成影院在线观看 | 国产精品国产三级国产专播 | 亚洲午夜福利在线观看 | 中文字幕精品av一区二区五区 | 日本在线高清不卡免费播放 | 久久人妻内射无码一区三区 | 国产激情精品一区二区三区 | 国产人成高清在线视频99最全资源 | 精品无码一区二区三区的天堂 | 久久人人爽人人爽人人片ⅴ | 中文字幕无码热在线视频 | 亚洲精品一区二区三区大桥未久 | 九月婷婷人人澡人人添人人爽 | 国产精品人人爽人人做我的可爱 | 人妻少妇精品无码专区二区 | 免费网站看v片在线18禁无码 | 老熟女重囗味hdxx69 | 久久久久久亚洲精品a片成人 | 一个人看的视频www在线 | 老子影院午夜精品无码 | av无码电影一区二区三区 | 黑人大群体交免费视频 | 奇米影视888欧美在线观看 | 久久99精品久久久久久 | 国产精品.xx视频.xxtv | 水蜜桃av无码 | 国产精华av午夜在线观看 | 欧美性生交xxxxx久久久 | 成人片黄网站色大片免费观看 | 国产免费久久久久久无码 | 人妻尝试又大又粗久久 | 亚洲国产av美女网站 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲色欲色欲欲www在线 | 精品国产成人一区二区三区 | 香港三级日本三级妇三级 | 久久无码中文字幕免费影院蜜桃 | 亚洲熟熟妇xxxx | 中文字幕人妻无码一夲道 | 日日碰狠狠丁香久燥 | 一本无码人妻在中文字幕免费 | 日日天日日夜日日摸 | 好屌草这里只有精品 | 成人毛片一区二区 | 久久五月精品中文字幕 | 自拍偷自拍亚洲精品10p | 亚洲欧洲日本无在线码 | 无码人妻出轨黑人中文字幕 | 亚洲色欲色欲欲www在线 | 国产69精品久久久久app下载 | 欧美日韩视频无码一区二区三 | 久久天天躁狠狠躁夜夜免费观看 | 国产亚洲美女精品久久久2020 | 网友自拍区视频精品 | 无码中文字幕色专区 | 无码国产激情在线观看 | a国产一区二区免费入口 | 一本一道久久综合久久 | 国产人妻大战黑人第1集 | 狂野欧美性猛交免费视频 | 免费无码一区二区三区蜜桃大 | 国产成人精品一区二区在线小狼 | 男女超爽视频免费播放 | 一二三四社区在线中文视频 | 精品国产aⅴ无码一区二区 | 久久久久久久久蜜桃 | 日本xxxx色视频在线观看免费 | 夜夜夜高潮夜夜爽夜夜爰爰 | 奇米影视7777久久精品人人爽 | 精品久久久无码人妻字幂 | 国产又粗又硬又大爽黄老大爷视 | 精品国产av色一区二区深夜久久 | 国产精品久久久久久亚洲影视内衣 | 久久综合九色综合97网 | 午夜理论片yy44880影院 | 国产精品无码一区二区桃花视频 | 无码人妻出轨黑人中文字幕 | 学生妹亚洲一区二区 | 精品久久久久久人妻无码中文字幕 | 中文字幕人成乱码熟女app | 久久99精品久久久久久动态图 | 露脸叫床粗话东北少妇 | 国产精品无码永久免费888 | 狂野欧美性猛交免费视频 | 色 综合 欧美 亚洲 国产 | 国产一区二区三区精品视频 | 18无码粉嫩小泬无套在线观看 | 欧美老妇交乱视频在线观看 | 婷婷五月综合缴情在线视频 | 国产精品无码成人午夜电影 | 波多野结衣av一区二区全免费观看 | 男女爱爱好爽视频免费看 | 国产欧美精品一区二区三区 | 成年女人永久免费看片 | 樱花草在线社区www | 日韩av无码中文无码电影 | 亚洲日韩av一区二区三区四区 | 扒开双腿疯狂进出爽爽爽视频 | 色婷婷综合激情综在线播放 | 久久精品99久久香蕉国产色戒 | 成人综合网亚洲伊人 | 自拍偷自拍亚洲精品10p | 亚洲成av人综合在线观看 | 国产免费无码一区二区视频 | 免费观看又污又黄的网站 | 亚洲一区二区三区四区 | 色综合天天综合狠狠爱 | 97久久超碰中文字幕 | 国产成人精品必看 | 久久久久久av无码免费看大片 | 国产偷自视频区视频 | 国产人成高清在线视频99最全资源 | 色情久久久av熟女人妻网站 | 国产精品.xx视频.xxtv | 亚洲国产欧美日韩精品一区二区三区 | 久久综合久久自在自线精品自 | 中文亚洲成a人片在线观看 | 精品无码一区二区三区的天堂 | 国内精品一区二区三区不卡 | 亚洲人交乣女bbw | 国产亚洲精品精品国产亚洲综合 | 全球成人中文在线 | ass日本丰满熟妇pics | 黑人巨大精品欧美黑寡妇 | 无码播放一区二区三区 | 天天爽夜夜爽夜夜爽 | 国产又爽又黄又刺激的视频 | 亚洲国产精品久久人人爱 | 97色伦图片97综合影院 | 免费中文字幕日韩欧美 | 国产精品第一区揄拍无码 | 亚洲男女内射在线播放 | 人人妻人人澡人人爽欧美一区九九 | 精品无人国产偷自产在线 | 国产人妻人伦精品1国产丝袜 | 清纯唯美经典一区二区 | 伊人久久婷婷五月综合97色 | 中文久久乱码一区二区 | 好爽又高潮了毛片免费下载 | 亚洲熟妇色xxxxx亚洲 | 国产精品亚洲五月天高清 | 精品国产一区av天美传媒 | 国产免费久久精品国产传媒 | 国产精华av午夜在线观看 | 国产精品亚洲lv粉色 | 国产两女互慰高潮视频在线观看 | 亚洲热妇无码av在线播放 | 中国女人内谢69xxxxxa片 | 天海翼激烈高潮到腰振不止 | 在线观看欧美一区二区三区 | 亚洲精品久久久久久久久久久 | 日韩av无码一区二区三区 | 99久久久国产精品无码免费 | 无码国产乱人伦偷精品视频 | 欧美35页视频在线观看 | 国产午夜无码视频在线观看 | 无码播放一区二区三区 | 欧美zoozzooz性欧美 | 成人av无码一区二区三区 | 小sao货水好多真紧h无码视频 | 67194成是人免费无码 | 少妇无码av无码专区在线观看 | 国内揄拍国内精品少妇国语 | 久久99国产综合精品 | 无码午夜成人1000部免费视频 | 真人与拘做受免费视频 | 亚洲成av人片在线观看无码不卡 | 亚洲一区二区三区含羞草 | 999久久久国产精品消防器材 | 高清国产亚洲精品自在久久 | 国精产品一区二区三区 | 午夜性刺激在线视频免费 | 欧美黑人巨大xxxxx | 久青草影院在线观看国产 | 日本丰满护士爆乳xxxx | 欧美国产日韩亚洲中文 | 国产精品第一国产精品 | 亚洲熟妇自偷自拍另类 | 在线精品亚洲一区二区 | 鲁一鲁av2019在线 | 18禁黄网站男男禁片免费观看 | 亚洲欧美日韩综合久久久 | 丝袜足控一区二区三区 | 97资源共享在线视频 | 日本一区二区三区免费高清 | 丝袜 中出 制服 人妻 美腿 | 欧美老熟妇乱xxxxx | av无码久久久久不卡免费网站 | 免费网站看v片在线18禁无码 | 午夜福利一区二区三区在线观看 | 天天摸天天碰天天添 | 无遮无挡爽爽免费视频 | 亚洲欧美中文字幕5发布 | 国产精品久久久午夜夜伦鲁鲁 | 青青青手机频在线观看 | 欧美日韩综合一区二区三区 | 国产黄在线观看免费观看不卡 | 狠狠色噜噜狠狠狠狠7777米奇 | 丝袜人妻一区二区三区 | 无遮无挡爽爽免费视频 | 亚洲精品午夜国产va久久成人 | 国产农村乱对白刺激视频 | 国产舌乚八伦偷品w中 | 国产色精品久久人妻 | 天堂一区人妻无码 | 国产成人精品一区二区在线小狼 | 一区二区三区乱码在线 | 欧洲 | 国产成人久久精品流白浆 | 男女下面进入的视频免费午夜 | 18禁黄网站男男禁片免费观看 | 精品无人区无码乱码毛片国产 | 97夜夜澡人人双人人人喊 | 曰韩无码二三区中文字幕 | 亚洲国产精品久久久天堂 | 色婷婷综合激情综在线播放 | 国产手机在线αⅴ片无码观看 | 人人澡人人透人人爽 | 久久精品女人天堂av免费观看 | 正在播放东北夫妻内射 | 国产色精品久久人妻 | 波多野结衣aⅴ在线 | 国产片av国语在线观看 | 人妻有码中文字幕在线 | 国产区女主播在线观看 | 国产亚洲精品久久久久久国模美 | 亚洲一区二区三区国产精华液 | 欧美亚洲日韩国产人成在线播放 | 性欧美videos高清精品 | 色欲人妻aaaaaaa无码 | a片在线免费观看 | 亚洲欧美综合区丁香五月小说 | 人人妻人人藻人人爽欧美一区 | 女人被爽到呻吟gif动态图视看 | 2020久久香蕉国产线看观看 | 中国女人内谢69xxxxxa片 | 无码国产乱人伦偷精品视频 | 久久亚洲a片com人成 | 老熟妇乱子伦牲交视频 | 少妇高潮喷潮久久久影院 | 老司机亚洲精品影院无码 | 国产精品久久久久久亚洲影视内衣 | 亚洲精品国产精品乱码视色 | 国产一区二区不卡老阿姨 | 亚洲熟熟妇xxxx | 成 人 网 站国产免费观看 | 国产明星裸体无码xxxx视频 | 青草视频在线播放 | 女人被男人躁得好爽免费视频 | 玩弄中年熟妇正在播放 | 国产av人人夜夜澡人人爽麻豆 | 国内精品人妻无码久久久影院 | 人人妻人人澡人人爽人人精品 | 国产精品第一国产精品 | 亚洲中文字幕久久无码 | 国产精品亚洲一区二区三区喷水 | 日本一卡二卡不卡视频查询 | 波多野结衣乳巨码无在线观看 | 无码福利日韩神码福利片 | 亚洲精品无码人妻无码 | 精品偷拍一区二区三区在线看 | 天海翼激烈高潮到腰振不止 | 搡女人真爽免费视频大全 | 日本大香伊一区二区三区 | 国产精品手机免费 | 男女爱爱好爽视频免费看 | 久久久无码中文字幕久... | 成人欧美一区二区三区黑人免费 | 国产成人精品久久亚洲高清不卡 | 乱人伦人妻中文字幕无码久久网 | 精品人妻人人做人人爽夜夜爽 | 97资源共享在线视频 | 国产精品鲁鲁鲁 | 日产精品高潮呻吟av久久 | 亚欧洲精品在线视频免费观看 | 黑森林福利视频导航 | 天堂一区人妻无码 | 日日橹狠狠爱欧美视频 | 欧美日韩一区二区综合 | 日本精品高清一区二区 | 天天拍夜夜添久久精品 | 亚洲欧洲日本无在线码 | 色妞www精品免费视频 | 一个人看的www免费视频在线观看 | 亚洲中文字幕无码中字 | 精品成人av一区二区三区 | 国精产品一区二区三区 | 成人性做爰aaa片免费看 | 99久久人妻精品免费二区 | 国内精品久久毛片一区二区 | 亚洲成av人影院在线观看 | 成人性做爰aaa片免费看不忠 | 欧洲欧美人成视频在线 | 欧美大屁股xxxxhd黑色 | 麻豆国产97在线 | 欧洲 | av无码不卡在线观看免费 | 国产精品亚洲五月天高清 | 性做久久久久久久久 | 好爽又高潮了毛片免费下载 | 无码一区二区三区在线观看 | 偷窥日本少妇撒尿chinese | 久久无码专区国产精品s | 欧美亚洲国产一区二区三区 | 国産精品久久久久久久 | 扒开双腿吃奶呻吟做受视频 | 国产成人久久精品流白浆 | 欧美xxxx黑人又粗又长 | 成年女人永久免费看片 | 亚洲人成网站免费播放 | 激情五月综合色婷婷一区二区 | 人妻互换免费中文字幕 | 亚洲色大成网站www国产 | 国产成人精品久久亚洲高清不卡 | 中文字幕人妻丝袜二区 | 东京一本一道一二三区 | 中文字幕乱码人妻无码久久 | 东京热无码av男人的天堂 | 亚洲成在人网站无码天堂 | 国产精品第一国产精品 | 丰满少妇熟乱xxxxx视频 | 99久久人妻精品免费一区 | 国产精品久久福利网站 | 成人亚洲精品久久久久软件 | 人妻人人添人妻人人爱 | 性欧美熟妇videofreesex | 伦伦影院午夜理论片 | 久久亚洲精品成人无码 | 娇妻被黑人粗大高潮白浆 | 装睡被陌生人摸出水好爽 | 丰满人妻精品国产99aⅴ | 永久免费观看国产裸体美女 | 午夜精品一区二区三区在线观看 | 精品夜夜澡人妻无码av蜜桃 | 熟女少妇在线视频播放 | 国产午夜无码精品免费看 | 国产精品嫩草久久久久 | 色欲综合久久中文字幕网 | 亚洲人成网站在线播放942 | 中文字幕+乱码+中文字幕一区 | 国产精品.xx视频.xxtv | 成人精品一区二区三区中文字幕 | 国内揄拍国内精品少妇国语 | av在线亚洲欧洲日产一区二区 | 无码帝国www无码专区色综合 | 日韩精品无码免费一区二区三区 | 国产极品美女高潮无套在线观看 | 亚洲国产精品一区二区美利坚 | 国产超级va在线观看视频 | 国产免费无码一区二区视频 | 天天摸天天碰天天添 | 领导边摸边吃奶边做爽在线观看 | 天海翼激烈高潮到腰振不止 | 中文字幕av伊人av无码av | 国产精品-区区久久久狼 | 粉嫩少妇内射浓精videos | 东京热男人av天堂 | 免费播放一区二区三区 | 亚洲色欲色欲欲www在线 | 一本精品99久久精品77 | 男女性色大片免费网站 | 国产精品无码一区二区桃花视频 | 午夜福利一区二区三区在线观看 | 高清国产亚洲精品自在久久 | 国产乱码精品一品二品 | 夜精品a片一区二区三区无码白浆 | 日本成熟视频免费视频 | 天天做天天爱天天爽综合网 | 日本熟妇人妻xxxxx人hd | 97夜夜澡人人双人人人喊 | 在线亚洲高清揄拍自拍一品区 | 日本精品少妇一区二区三区 | a在线亚洲男人的天堂 | 日本www一道久久久免费榴莲 | 无套内谢的新婚少妇国语播放 | 无套内射视频囯产 | аⅴ资源天堂资源库在线 | 成人免费无码大片a毛片 | 亚洲精品午夜国产va久久成人 | 在线观看免费人成视频 | 在线播放免费人成毛片乱码 | 一本大道久久东京热无码av | 亚洲va中文字幕无码久久不卡 | 欧美激情内射喷水高潮 | 国语精品一区二区三区 | 日韩精品a片一区二区三区妖精 | 荫蒂被男人添的好舒服爽免费视频 | 中文字幕av伊人av无码av | 国产精品久久久久久亚洲影视内衣 | 人妻无码久久精品人妻 | 天天燥日日燥 | 性做久久久久久久免费看 | 国产免费久久精品国产传媒 | 国产精品va在线观看无码 | 少女韩国电视剧在线观看完整 | 国产亚洲人成a在线v网站 | 成人亚洲精品久久久久 | 无码吃奶揉捏奶头高潮视频 | 精品一区二区三区无码免费视频 | 免费人成网站视频在线观看 | 男女下面进入的视频免费午夜 | 黑人巨大精品欧美黑寡妇 | 欧美大屁股xxxxhd黑色 | 无码午夜成人1000部免费视频 | 99精品久久毛片a片 | 内射后入在线观看一区 | 国产激情综合五月久久 | 亚洲七七久久桃花影院 | 丁香花在线影院观看在线播放 | 天堂亚洲免费视频 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 |