3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Spark学习之Spark RDD算子

發(fā)布時(shí)間:2025/6/17 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark学习之Spark RDD算子 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

個(gè)人主頁zicesun.com

這里,從源碼的角度總結(jié)一下Spark RDD算子的用法。

單值型Transformation算子

map

/*** Return a new RDD by applying a function to all elements of this RDD.*/def map[U: ClassTag](f: T => U): RDD[U] = withScope {val cleanF = sc.clean(f)new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.map(cleanF))} 復(fù)制代碼

源碼中有一個(gè) sc.clean() 函數(shù),它的所用是去除閉包中不能序列話的外部引用變量。Scala支持閉包,閉包會(huì)把它對外的引用(閉包里面引用了閉包外面的對像)保存到自己內(nèi)部,這個(gè)閉包就可以被單獨(dú)使用了,而不用擔(dān)心它脫離了當(dāng)前的作用域;但是在spark這種分布式環(huán)境里,這種作法會(huì)帶來問題,如果對外部的引用是不可serializable的,它就不能正確被發(fā)送到worker節(jié)點(diǎn)上去了;還有一些引用,可能根本沒有用到,這些沒有使用到的引用是不需要被發(fā)到worker上的; 實(shí)際上sc.clean函數(shù)調(diào)用的是ClosureCleaner.clean();ClosureCleaner.clean()通過遞歸遍歷閉包里面的引用,檢查不能serializable的, 去除unused的引用;

map函數(shù)是一個(gè)粗粒度的操作,對于一個(gè)RDD來說,會(huì)使用迭代器對分區(qū)進(jìn)行遍歷,然后針對一個(gè)分區(qū)使用你想要執(zhí)行的操作f, 然后返回一個(gè)新的RDD。其實(shí)可以理解為rdd的每一個(gè)元素都會(huì)執(zhí)行同樣的操作。

scala> val array = Array(1,2,3,4,5,6) array: Array[Int] = Array(1, 2, 3, 4, 5, 6) scala> val rdd = sc.app appName applicationAttemptId applicationId scala> val rdd = sc.parallelize(array, 2) rdd: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:26 scala> val mapRdd = rdd.map(x => x * 2) mapRdd: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[1] at map at <console>:25 scala> mapRdd.collect().foreach(println) 2 4 6 8 10 12 復(fù)制代碼

flatMap

flatMap方法與map方法類似,但是允許一次map方法中輸出多個(gè)對象,而不是map中的一個(gè)對象經(jīng)過函數(shù)轉(zhuǎn)換成另一個(gè)對象。

/*** Return a new RDD by first applying a function to all elements of this* RDD, and then flattening the results.*/def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U] = withScope {val cleanF = sc.clean(f)new MapPartitionsRDD[U, T](this, (context, pid, iter) => iter.flatMap(cleanF))} 復(fù)制代碼scala> val a = sc.parallelize(1 to 10, 5) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24 scala> a.flatMap(num => 1 to num).collect res1: Array[Int] = Array(1, 1, 2, 1, 2, 3, 1, 2, 3, 4, 1, 2, 3, 4, 5, 1, 2, 3, 4, 5, 6, 1, 2, 3, 4, 5, 6, 7, 1, 2, 3, 4, 5, 6, 7, 8, 1, 2, 3, 4, 5, 6, 7, 8, 9, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10)復(fù)制代碼

mapPartitions

mapPartitions是map的另一個(gè)實(shí)現(xiàn),map的輸入函數(shù)應(yīng)用與RDD的每個(gè)元素,但是mapPartitions的輸入函數(shù)作用于每個(gè)分區(qū),也就是每個(gè)分區(qū)的內(nèi)容作為整體。

/*** Return a new RDD by applying a function to each partition of this RDD.** `preservesPartitioning` indicates whether the input function preserves the partitioner, which* should be `false` unless this is a pair RDD and the input function doesn't modify the keys.*/def mapPartitions[U: ClassTag](f: Iterator[T] => Iterator[U],preservesPartitioning: Boolean = false): RDD[U] = withScope {val cleanedF = sc.clean(f)new MapPartitionsRDD(this,(context: TaskContext, index: Int, iter: Iterator[T]) => cleanedF(iter),preservesPartitioning)} 復(fù)制代碼scala> def myfunc[T](iter: Iterator[T]):Iterator[(T,T)]={ | var res = List[(T,T)]()| var pre = iter.next| while(iter.hasNext){| var cur = iter.next| res .::= (pre, cur)| pre = cur| }| res.iterator| } myfunc: [T](iter: Iterator[T])Iterator[(T, T)] scala> val a = sc.parallelize(1 to 9,3) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24 scala> a.mapPartitions mapPartitions mapPartitionsWithIndex scala> a.mapPartitions(myfunc).collect res0: Array[(Int, Int)] = Array((2,3), (1,2), (5,6), (4,5), (8,9), (7,8)) 復(fù)制代碼

mapPartitionWithIndex

mapPartitionWithIndex方法與mapPartitions方法類似,不同的是mapPartitionWithIndex會(huì)對原始分區(qū)的索引進(jìn)行追蹤,這樣就可以知道分區(qū)所對應(yīng)的元素,方法的參數(shù)為一個(gè)函數(shù),函數(shù)的輸入為整型索引和迭代器。

/*** Return a new RDD by applying a function to each partition of this RDD, while tracking the index* of the original partition.** `preservesPartitioning` indicates whether the input function preserves the partitioner, which* should be `false` unless this is a pair RDD and the input function doesn't modify the keys.*/def mapPartitionsWithIndex[U: ClassTag](f: (Int, Iterator[T]) => Iterator[U],preservesPartitioning: Boolean = false): RDD[U] = withScope {val cleanedF = sc.clean(f)new MapPartitionsRDD(this,(context: TaskContext, index: Int, iter: Iterator[T]) => cleanedF(index, iter),preservesPartitioning)} 復(fù)制代碼scala> val x = sc.parallelize(1 to 10, 3) x: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24 scala> def myFunc(index:Int, iter:Iterator[Int]):Iterator[String]={| iter.toList.map(x => index + "," + x).iterator| } myFunc: (index: Int, iter: Iterator[Int])Iterator[String] scala> x.mapPartitions mapPartitions mapPartitionsWithIndex scala> x.mapPartitionsWithIndex(myFunc).collect res1: Array[String] = Array(0,1, 0,2, 0,3, 1,4, 1,5, 1,6, 2,7, 2,8, 2,9, 2,10) 復(fù)制代碼

foreach

foreach主要對每一個(gè)輸入的數(shù)據(jù)對象執(zhí)行循環(huán)操作,可以用來執(zhí)行對RDD元素的輸出操作。

/*** Applies a function f to all elements of this RDD.*/def foreach(f: T => Unit): Unit = withScope {val cleanF = sc.clean(f)sc.runJob(this, (iter: Iterator[T]) => iter.foreach(cleanF))} 復(fù)制代碼scala> var x = sc.parallelize(List(1 to 9), 3) x: org.apache.spark.rdd.RDD[scala.collection.immutable.Range.Inclusive] = ParallelCollectionRDD[5] at parallelize at <console>:24 scala> x.foreach(print) Range(1, 2, 3, 4, 5, 6, 7, 8, 9) 復(fù)制代碼

foreachPartition

foreachPartition方法和mapPartition的作用一樣,通過迭代器參數(shù)對RDD中每一個(gè)分區(qū)的數(shù)據(jù)對象應(yīng)用函數(shù),區(qū)別在于使用的參數(shù)是否有返回值。

/*** Applies a function f to each partition of this RDD.*/def foreachPartition(f: Iterator[T] => Unit): Unit = withScope {val cleanF = sc.clean(f)sc.runJob(this, (iter: Iterator[T]) => cleanF(iter))} 復(fù)制代碼scala> val b = sc.parallelize(List(1,2,3,4,5,6), 3) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[1] at parallelize at <console>:24 scala> b.foreachPartition(x => println(x.reduce((a,b) => a +b))) 7 3 11 復(fù)制代碼

glom

glom的作用與collec類似,collect是將RDD直接轉(zhuǎn)化為數(shù)組的形式,而glom則是將RDD分區(qū)數(shù)據(jù)組裝到數(shù)組類型的RDD中,每一個(gè)返回的數(shù)組包含一個(gè)分區(qū)的所有元素,按分區(qū)轉(zhuǎn)化為數(shù)組,有幾個(gè)分區(qū)就返回幾個(gè)數(shù)組類型的RDD。

/*** Return an RDD created by coalescing all elements within each partition into an array.*/def glom(): RDD[Array[T]] = withScope {new MapPartitionsRDD[Array[T], T](this, (context, pid, iter) => Iterator(iter.toArray))} 復(fù)制代碼

下面的例子中,RDD a有三個(gè)分區(qū),glom將a轉(zhuǎn)化為由三個(gè)數(shù)組構(gòu)成的RDD。

scala> val a = sc.parallelize(1 to 9, 3) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[2] at parallelize at <console>:24 scala> a.glom.collect res5: Array[Array[Int]] = Array(Array(1, 2, 3), Array(4, 5, 6), Array(7, 8, 9)) scala> a.glom res6: org.apache.spark.rdd.RDD[Array[Int]] = MapPartitionsRDD[4] at glom at <console>:26 復(fù)制代碼

union

union方法與++方法是等價(jià)的,將兩個(gè)RDD去并集,取并集的過程中不會(huì)去重。

/*** Return the union of this RDD and another one. Any identical elements will appear multiple* times (use `.distinct()` to eliminate them).*/def union(other: RDD[T]): RDD[T] = withScope {sc.union(this, other)}/*** Return the union of this RDD and another one. Any identical elements will appear multiple* times (use `.distinct()` to eliminate them).*/def ++(other: RDD[T]): RDD[T] = withScope {this.union(other)} 復(fù)制代碼scala> val a = sc.parallelize(1 to 4,2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[5] at parallelize at <console>:24 scala> val b = sc.parallelize(2 to 5,1) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[6] at parallelize at <console>:24 scala> a.un union unpersist scala> a.union(b).collect res7: Array[Int] = Array(1, 2, 3, 4, 2, 3, 4, 5)復(fù)制代碼

cartesian

計(jì)算兩個(gè)RDD中每個(gè)對象的笛卡爾積

/*** Return the Cartesian product of this RDD and another one, that is, the RDD of all pairs of* elements (a, b) where a is in `this` and b is in `other`.*/def cartesian[U: ClassTag](other: RDD[U]): RDD[(T, U)] = withScope {new CartesianRDD(sc, this, other)}復(fù)制代碼cala> val a = sc.parallelize(1 to 4,2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[5] at parallelize at <console>:24 scala> val b = sc.parallelize(2 to 5,1) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[6] at parallelize at <console>:24 scala> a.cartesian(b).collect res8: Array[(Int, Int)] = Array((1,2), (1,3), (1,4), (1,5), (2,2), (2,3), (2,4), (2,5), (3,2), (3,3), (3,4), (3,5), (4,2), (4,3), (4,4), (4,5))復(fù)制代碼

groupBy

groupBy方法有三個(gè)重載方法,功能是講元素通過map函數(shù)生成Key-Value格式,然后使用groupByKey方法對Key-Value進(jìn)行聚合。

/*** Return an RDD of grouped items. Each group consists of a key and a sequence of elements* mapping to that key. The ordering of elements within each group is not guaranteed, and* may even differ each time the resulting RDD is evaluated.** @note This operation may be very expensive. If you are grouping in order to perform an* aggregation (such as a sum or average) over each key, using `PairRDDFunctions.aggregateByKey`* or `PairRDDFunctions.reduceByKey` will provide much better performance.*/def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] = withScope {groupBy[K](f, defaultPartitioner(this))}/*** Return an RDD of grouped elements. Each group consists of a key and a sequence of elements* mapping to that key. The ordering of elements within each group is not guaranteed, and* may even differ each time the resulting RDD is evaluated.** @note This operation may be very expensive. If you are grouping in order to perform an* aggregation (such as a sum or average) over each key, using `PairRDDFunctions.aggregateByKey`* or `PairRDDFunctions.reduceByKey` will provide much better performance.*/def groupBy[K](f: T => K,numPartitions: Int)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])] = withScope {groupBy(f, new HashPartitioner(numPartitions))}/*** Return an RDD of grouped items. Each group consists of a key and a sequence of elements* mapping to that key. The ordering of elements within each group is not guaranteed, and* may even differ each time the resulting RDD is evaluated.** @note This operation may be very expensive. If you are grouping in order to perform an* aggregation (such as a sum or average) over each key, using `PairRDDFunctions.aggregateByKey`* or `PairRDDFunctions.reduceByKey` will provide much better performance.*/def groupBy[K](f: T => K, p: Partitioner)(implicit kt: ClassTag[K], ord: Ordering[K] = null): RDD[(K, Iterable[T])] = withScope {val cleanF = sc.clean(f)this.map(t => (cleanF(t), t)).groupByKey(p)}復(fù)制代碼scala> val a = sc.parallelize(1 to 9,2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[9] at parallelize at <console>:24 scala> a.groupBy(x => {if(x % 2 == 0) "even" else "odd"}).collect res9: Array[(String, Iterable[Int])] = Array((even,CompactBuffer(2, 4, 6, 8)), (odd,CompactBuffer(1, 3, 5, 7, 9))) scala> def myfunc(a: Int):Int={| a % 2| } myfunc: (a: Int)Int scala> a.groupBy(myfunc).collect res10: Array[(Int, Iterable[Int])] = Array((0,CompactBuffer(2, 4, 6, 8)), (1,CompactBuffer(1, 3, 5, 7, 9))) scala> a.groupBy(myfunc(_), 1).collect res11: Array[(Int, Iterable[Int])] = Array((0,CompactBuffer(2, 4, 6, 8)), (1,CompactBuffer(1, 3, 5, 7, 9)))復(fù)制代碼

filter

filter方法對輸入元素進(jìn)行過濾,參數(shù)是一個(gè)返回值為boolean的函數(shù),如果函數(shù)對元素的運(yùn)算結(jié)果為true,則通過元素,否則就將該元素過濾,不進(jìn)入結(jié)果集。

/*** Return a new RDD containing only the elements that satisfy a predicate.*/def filter(f: T => Boolean): RDD[T] = withScope {val cleanF = sc.clean(f)new MapPartitionsRDD[T, T](this,(context, pid, iter) => iter.filter(cleanF),preservesPartitioning = true)}復(fù)制代碼scala> val a = sc.parallelize(List("we", "are", "from", "China", "not", "from", "America")) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[16] at parallelize at <console>:24 scala> val b = a.filter(x => x.length >= 4) b: org.apache.spark.rdd.RDD[String] = MapPartitionsRDD[17] at filter at <console>:25 scala> b.collect.foreach(println) from China from America復(fù)制代碼

distinct

distinct方法將RDD中重復(fù)的元素去掉,只留下唯一的RDD元素。

/*** Return a new RDD containing the distinct elements in this RDD.*/def distinct(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope {map(x => (x, null)).reduceByKey((x, y) => x, numPartitions).map(_._1)}復(fù)制代碼scala> val a = sc.parallelize(List("we", "are", "from", "China", "not", "from", "America")) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[18] at parallelize at <console>:24 scala> val b = a.map(x => x.length) b: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[19] at map at <console>:25 scala> val c = b.distinct c: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[22] at distinct at <console>:25 scala> c.foreach(println) 5 4 2 3 7復(fù)制代碼

subtract

subtract方法就是求集合A-B,即把集合A中包含集合B的元素都刪除,返回剩下的元素。

/*** Return an RDD with the elements from `this` that are not in `other`.** Uses `this` partitioner/partition size, because even if `other` is huge, the resulting* RDD will be &lt;= us.*/def subtract(other: RDD[T]): RDD[T] = withScope {subtract(other, partitioner.getOrElse(new HashPartitioner(partitions.length)))}/*** Return an RDD with the elements from `this` that are not in `other`.*/def subtract(other: RDD[T], numPartitions: Int): RDD[T] = withScope {subtract(other, new HashPartitioner(numPartitions))}/*** Return an RDD with the elements from `this` that are not in `other`.*/def subtract(other: RDD[T],p: Partitioner)(implicit ord: Ordering[T] = null): RDD[T] = withScope {if (partitioner == Some(p)) {// Our partitioner knows how to handle T (which, since we have a partitioner, is// really (K, V)) so make a new Partitioner that will de-tuple our fake tuplesval p2 = new Partitioner() {override def numPartitions: Int = p.numPartitionsoverride def getPartition(k: Any): Int = p.getPartition(k.asInstanceOf[(Any, _)]._1)}// Unfortunately, since we're making a new p2, we'll get ShuffleDependencies// anyway, and when calling .keys, will not have a partitioner set, even though// the SubtractedRDD will, thanks to p2's de-tupled partitioning, already be// partitioned by the right/real keys (e.g. p).this.map(x => (x, null)).subtractByKey(other.map((_, null)), p2).keys} else {this.map(x => (x, null)).subtractByKey(other.map((_, null)), p).keys}}復(fù)制代碼scala> val a = sc.parallelize(1 to 9, 2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[23] at parallelize at <console>:24 scala> val b = sc.parallelize(2 to 5, 4) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[24] at parallelize at <console>:24 scala> val c = a.subtract(b) c: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[28] at subtract at <console>:27 scala> c.collect res14: Array[Int] = Array(6, 8, 1, 7, 9)復(fù)制代碼

persist與cache

cache,緩存數(shù)據(jù),把RDD緩存到內(nèi)存中,以便下次計(jì)算式再次被調(diào)用。persist是把RDD根據(jù)不同的級別進(jìn)行持久化,通過參數(shù)指定持久化級別,如果不帶參數(shù)則為默認(rèn)持久化級別,即只保存到內(nèi)存中,與Cache等價(jià)。

sample

sample方法的作用是隨即對RDD中的元素進(jìn)行采樣,或得一個(gè)新的子RDD。根據(jù)參數(shù)制定是否放回采樣,子集占總數(shù)的百分比和隨機(jī)種子。

/*** Return a sampled subset of this RDD.** @param withReplacement can elements be sampled multiple times (replaced when sampled out)* @param fraction expected size of the sample as a fraction of this RDD's size* without replacement: probability that each element is chosen; fraction must be [0, 1]* with replacement: expected number of times each element is chosen; fraction must be greater* than or equal to 0* @param seed seed for the random number generator** @note This is NOT guaranteed to provide exactly the fraction of the count* of the given [[RDD]].*/def sample(withReplacement: Boolean,fraction: Double,seed: Long = Utils.random.nextLong): RDD[T] = {require(fraction >= 0,s"Fraction must be nonnegative, but got ${fraction}")withScope {require(fraction >= 0.0, "Negative fraction value: " + fraction)if (withReplacement) {new PartitionwiseSampledRDD[T, T](this, new PoissonSampler[T](fraction), true, seed)} else {new PartitionwiseSampledRDD[T, T](this, new BernoulliSampler[T](fraction), true, seed)}}}復(fù)制代碼scala> val a = sc.parallelize(1 to 100, 2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[31] at parallelize at <console>:24 scala> val b = a.sample(false, 0.2, 0) b: org.apache.spark.rdd.RDD[Int] = PartitionwiseSampledRDD[32] at sample at <console>:25 scala> b.foreach(println) 5 19 20 26 27 29 30 57 40 61 45 68 73 50 75 79 81 85 89 99復(fù)制代碼

鍵值對型transformation算子

groupByKey

類似于groupBy,將每一個(gè)相同的Key的Value聚集起來形成序列,可以使用默認(rèn)的分區(qū)器和自定義的分區(qū)器。

/*** Group the values for each key in the RDD into a single sequence. Allows controlling the* partitioning of the resulting key-value pair RDD by passing a Partitioner.* The ordering of elements within each group is not guaranteed, and may even differ* each time the resulting RDD is evaluated.** @note This operation may be very expensive. If you are grouping in order to perform an* aggregation (such as a sum or average) over each key, using `PairRDDFunctions.aggregateByKey`* or `PairRDDFunctions.reduceByKey` will provide much better performance.** @note As currently implemented, groupByKey must be able to hold all the key-value pairs for any* key in memory. If a key has too many values, it can result in an `OutOfMemoryError`.*/def groupByKey(partitioner: Partitioner): RDD[(K, Iterable[V])] = self.withScope {// groupByKey shouldn't use map side combine because map side combine does not// reduce the amount of data shuffled and requires all map side data be inserted// into a hash table, leading to more objects in the old gen.val createCombiner = (v: V) => CompactBuffer(v)val mergeValue = (buf: CompactBuffer[V], v: V) => buf += vval mergeCombiners = (c1: CompactBuffer[V], c2: CompactBuffer[V]) => c1 ++= c2val bufs = combineByKeyWithClassTag[CompactBuffer[V]](createCombiner, mergeValue, mergeCombiners, partitioner, mapSideCombine = false)bufs.asInstanceOf[RDD[(K, Iterable[V])]]}/*** Group the values for each key in the RDD into a single sequence. Hash-partitions the* resulting RDD with into `numPartitions` partitions. The ordering of elements within* each group is not guaranteed, and may even differ each time the resulting RDD is evaluated.** @note This operation may be very expensive. If you are grouping in order to perform an* aggregation (such as a sum or average) over each key, using `PairRDDFunctions.aggregateByKey`* or `PairRDDFunctions.reduceByKey` will provide much better performance.** @note As currently implemented, groupByKey must be able to hold all the key-value pairs for any* key in memory. If a key has too many values, it can result in an `OutOfMemoryError`.*/def groupByKey(numPartitions: Int): RDD[(K, Iterable[V])] = self.withScope {groupByKey(new HashPartitioner(numPartitions))}復(fù)制代碼scala> val a = sc.parallelize(List("mk", "zq", "xwc", "fig", "dcp", "snn"), 2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[33] at parallelize at <console>:24 scala> val b = a.keyBy(x => x.length) b: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[34] at keyBy at <console>:25 scala> b.groupByKey.collect res17: Array[(Int, Iterable[String])] = Array((2,CompactBuffer(mk, zq)), (3,CompactBuffer(xwc, fig, dcp, snn)))復(fù)制代碼

combineByKey

comineByKey方法能夠有效地講鍵值對形式的RDD相同的Key的Value合并成序列形式,用戶能自定義RDD的分區(qū)器和是否在Map端進(jìn)行聚合操作。

/*** Generic function to combine the elements for each key using a custom set of aggregation* functions. This method is here for backward compatibility. It does not provide combiner* classtag information to the shuffle.** @see `combineByKeyWithClassTag`*/def combineByKey[C](createCombiner: V => C,mergeValue: (C, V) => C,mergeCombiners: (C, C) => C,partitioner: Partitioner,mapSideCombine: Boolean = true,serializer: Serializer = null): RDD[(K, C)] = self.withScope {combineByKeyWithClassTag(createCombiner, mergeValue, mergeCombiners,partitioner, mapSideCombine, serializer)(null)}/*** Simplified version of combineByKeyWithClassTag that hash-partitions the output RDD.* This method is here for backward compatibility. It does not provide combiner* classtag information to the shuffle.** @see `combineByKeyWithClassTag`*/def combineByKey[C](createCombiner: V => C,mergeValue: (C, V) => C,mergeCombiners: (C, C) => C,numPartitions: Int): RDD[(K, C)] = self.withScope {combineByKeyWithClassTag(createCombiner, mergeValue, mergeCombiners, numPartitions)(null)}復(fù)制代碼scala> val a = sc.parallelize(List("xwc", "fig","wc", "dcp", "zq", "znn", "mk", "zl", "hk", "lp"), 2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[36] at parallelize at <console>:24 scala> val b = sc.parallelize(List(1,2,2,3,2,1,2,2,2,3),2) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[37] at parallelize at <console>:24 scala> val c = b.zip(a) c: org.apache.spark.rdd.RDD[(Int, String)] = ZippedPartitionsRDD2[38] at zip at <console>:27 scala> val d = c.combineByKey(List(_), (x:List[String], y:String)=>y::x, (x:List[String], y:List[String])=>x::: y) d: org.apache.spark.rdd.RDD[(Int, List[String])] = ShuffledRDD[39] at combineByKey at <console>:25 scala> d.collect res18: Array[(Int, List[String])] = Array((2,List(zq, wc, fig, hk, zl, mk)), (1,List(xwc, znn)), (3,List(dcp, lp)))復(fù)制代碼

上面的例子使用三個(gè)參數(shù)重載的方法,該方法的第一個(gè)參數(shù)createCombiner把元素V轉(zhuǎn)換成另一類元素C,該例子中使用的參數(shù)是List(_),表示將輸入元素放在List集合中;第二個(gè)參數(shù)mergeValue的含義是吧元素V合并到元素C中,該例子中使用的是(x:List[String],y:String)=>y::x,表示將y字符合并到x鏈表集合中;第三個(gè)參數(shù)的含義是講兩個(gè)C元素合并,該例子中使用的是(x:List[String], y:List[String])=>x:::y, 表示把x鏈表集合中的內(nèi)容合并到y(tǒng)鏈表中。

reduceByKey

使用一個(gè)reduce函數(shù)來實(shí)現(xiàn)對想要的Key的value的聚合操作,發(fā)送給reduce前會(huì)在map端本地merge操作,該方法的底層實(shí)現(xiàn)是調(diào)用combineByKey方法的一個(gè)重載方法。

/*** Merge the values for each key using an associative and commutative reduce function. This will* also perform the merging locally on each mapper before sending results to a reducer, similarly* to a "combiner" in MapReduce.*/def reduceByKey(partitioner: Partitioner, func: (V, V) => V): RDD[(K, V)] = self.withScope {combineByKeyWithClassTag[V]((v: V) => v, func, func, partitioner)}/*** Merge the values for each key using an associative and commutative reduce function. This will* also perform the merging locally on each mapper before sending results to a reducer, similarly* to a "combiner" in MapReduce. Output will be hash-partitioned with numPartitions partitions.*/def reduceByKey(func: (V, V) => V, numPartitions: Int): RDD[(K, V)] = self.withScope {reduceByKey(new HashPartitioner(numPartitions), func)}/*** Merge the values for each key using an associative and commutative reduce function. This will* also perform the merging locally on each mapper before sending results to a reducer, similarly* to a "combiner" in MapReduce. Output will be hash-partitioned with the existing partitioner/* parallelism level.*/def reduceByKey(func: (V, V) => V): RDD[(K, V)] = self.withScope {reduceByKey(defaultPartitioner(self), func)}復(fù)制代碼scala> val a = sc.parallelize(List("dcp","fjg","snn","wc", "za"), 2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[0] at parallelize at <console>:24 scala> val b = a.map(x => (x.length,x)) b: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[2] at map at <console>:25 scala> b.reduceByKey((a, b) => a + b ).collect res1: Array[(Int, String)] = Array((2,wcza), (3,dcpfjgsnn))復(fù)制代碼

sortByKey

根據(jù)Key值對鍵值對進(jìn)行排序,如果是字符,則按照字典順序排序,如果是數(shù)組則按照數(shù)字大小排序,可通過參數(shù)指定升序還是降序。

scala> val a = sc.parallelize(List("dcp","fjg","snn","wc", "za"), 2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[4] at parallelize at <console>:24 scala> val b = sc.parallelize(1 to a.count.toInt,2) b: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[5] at parallelize at <console>:26 scala> val c = a.zip(b) c: org.apache.spark.rdd.RDD[(String, Int)] = ZippedPartitionsRDD2[6] at zip at <console>:27 scala> c.sortByKey(true).collect res2: Array[(String, Int)] = Array((dcp,1), (fjg,2), (snn,3), (wc,4), (za,5))復(fù)制代碼

cogroup

scala> val a = sc.parallelize(List(1,2,2,3,1,3),2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[10] at parallelize at <console>:24scala> val b = a.map(x => (x, "b")) b: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[11] at map at <console>:25scala> val c = a.map(x => (x, "c")) c: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[12] at map at <console>:25scala> b.cogroup(c).collect res3: Array[(Int, (Iterable[String], Iterable[String]))] = Array((2,(CompactBuffer(b, b),CompactBuffer(c, c))), (1,(CompactBuffer(b, b),CompactBuffer(c, c))), (3,(CompactBuffer(b, b),CompactBuffer(c, c))))scala> val a = sc.parallelize(List(1,2,2,2,1,3),1) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[15] at parallelize at <console>:24scala> val b = a.map(x => (x, "b")) b: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[16] at map at <console>:25scala> val c = a.map(x => (x, "c")) c: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[17] at map at <console>:25scala> b.cogroup(c).collect res4: Array[(Int, (Iterable[String], Iterable[String]))] = Array((1,(CompactBuffer(b, b),CompactBuffer(c, c))), (3,(CompactBuffer(b),CompactBuffer(c))), (2,(CompactBuffer(b, b, b),CompactBuffer(c, c, c))))復(fù)制代碼

join

首先對RDD進(jìn)行cogroup操作,然后對每個(gè)新的RDD下Key的值進(jìn)行笛卡爾積操作,再返回結(jié)果使用flatmapValue方法。

scala> val a= sc.parallelize(List("fjg","wc","xwc"),2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[20] at parallelize at <console>:24 scala> val c = sc.parallelize(List("fig", "wc", "sbb", "zq","xwc","dcp"), 2) c: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[22] at parallelize at <console>:24scala> val d = c.keyBy(_.length) d: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[23] at keyBy at <console>:25scala> val b = a.keyBy(_.length) b: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[24] at keyBy at <console>:25scala> b.join(d).collect res6: Array[(Int, (String, String))] = Array((2,(wc,wc)), (2,(wc,zq)), (3,(fjg,fig)), (3,(fjg,sbb)), (3,(fjg,xwc)), (3,(fjg,dcp)), (3,(xwc,fig)), (3,(xwc,sbb)), (3,(xwc,xwc)), (3,(xwc,dcp)))復(fù)制代碼

Action算子

collect

把RDD中的元素以數(shù)組的形式返回。

/*** Return an array that contains all of the elements in this RDD.** @note This method should only be used if the resulting array is expected to be small, as* all the data is loaded into the driver's memory.*/def collect(): Array[T] = withScope {val results = sc.runJob(this, (iter: Iterator[T]) => iter.toArray)Array.concat(results: _*)}復(fù)制代碼scala> val a = sc.parallelize(List("a", "b", "c"),2) a: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[28] at parallelize at <console>:24 scala> a.collect res7: Array[String] = Array(a, b, c)復(fù)制代碼

reduce

使用一個(gè)帶兩個(gè)參數(shù)的函數(shù)把元素進(jìn)行聚集,返回一個(gè)元素的結(jié)果。該函數(shù)中的二元操作應(yīng)該滿足交換律和結(jié)合律,這樣才能在并行計(jì)算中得到正確的計(jì)算結(jié)果。

/*** Reduces the elements of this RDD using the specified commutative and* associative binary operator.*/def reduce(f: (T, T) => T): T = withScope {val cleanF = sc.clean(f)val reducePartition: Iterator[T] => Option[T] = iter => {if (iter.hasNext) {Some(iter.reduceLeft(cleanF))} else {None}}var jobResult: Option[T] = Noneval mergeResult = (index: Int, taskResult: Option[T]) => {if (taskResult.isDefined) {jobResult = jobResult match {case Some(value) => Some(f(value, taskResult.get))case None => taskResult}}}sc.runJob(this, reducePartition, mergeResult)// Get the final result out of our Option, or throw an exception if the RDD was emptyjobResult.getOrElse(throw new UnsupportedOperationException("empty collection"))}復(fù)制代碼scala> val a = sc.parallelize(1 to 10, 2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[29] at parallelize at <console>:24 scala> a.reduce((a, b) => a + b) res8: Int = 55復(fù)制代碼

take

take方法會(huì)從RDD中取出前n個(gè)元素。先掃描一個(gè)分區(qū),之后從分區(qū)中得到結(jié)果,然后評估該分區(qū)的元素是否滿足n,若果不滿足則繼續(xù)從其他分區(qū)中掃描獲取。

/*** Take the first num elements of the RDD. It works by first scanning one partition, and use the* results from that partition to estimate the number of additional partitions needed to satisfy* the limit.** @note This method should only be used if the resulting array is expected to be small, as* all the data is loaded into the driver's memory.** @note Due to complications in the internal implementation, this method will raise* an exception if called on an RDD of `Nothing` or `Null`.*/def take(num: Int): Array[T] = withScope {val scaleUpFactor = Math.max(conf.getInt("spark.rdd.limit.scaleUpFactor", 4), 2)if (num == 0) {new Array[T](0)} else {val buf = new ArrayBuffer[T]val totalParts = this.partitions.lengthvar partsScanned = 0while (buf.size < num && partsScanned < totalParts) {// The number of partitions to try in this iteration. It is ok for this number to be// greater than totalParts because we actually cap it at totalParts in runJob.var numPartsToTry = 1Lval left = num - buf.sizeif (partsScanned > 0) {// If we didn't find any rows after the previous iteration, quadruple and retry.// Otherwise, interpolate the number of partitions we need to try, but overestimate// it by 50%. We also cap the estimation in the end.if (buf.isEmpty) {numPartsToTry = partsScanned * scaleUpFactor} else {// As left > 0, numPartsToTry is always >= 1numPartsToTry = Math.ceil(1.5 * left * partsScanned / buf.size).toIntnumPartsToTry = Math.min(numPartsToTry, partsScanned * scaleUpFactor)}}val p = partsScanned.until(math.min(partsScanned + numPartsToTry, totalParts).toInt)val res = sc.runJob(this, (it: Iterator[T]) => it.take(left).toArray, p)res.foreach(buf ++= _.take(num - buf.size))partsScanned += p.size}buf.toArray}}復(fù)制代碼scala> val a = sc.parallelize(1 to 10, 2) a: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[30] at parallelize at <console>:24 scala> a.take(5) res9: Array[Int] = Array(1, 2, 3, 4, 5)復(fù)制代碼

top

top會(huì)采用隱式排序轉(zhuǎn)換來獲取最大的前n個(gè)元素。

/*** Returns the top k (largest) elements from this RDD as defined by the specified* implicit Ordering[T] and maintains the ordering. This does the opposite of* [[takeOrdered]]. For example:* {{{* sc.parallelize(Seq(10, 4, 2, 12, 3)).top(1)* // returns Array(12)** sc.parallelize(Seq(2, 3, 4, 5, 6)).top(2)* // returns Array(6, 5)* }}}** @note This method should only be used if the resulting array is expected to be small, as* all the data is loaded into the driver's memory.** @param num k, the number of top elements to return* @param ord the implicit ordering for T* @return an array of top elements*/def top(num: Int)(implicit ord: Ordering[T]): Array[T] = withScope {takeOrdered(num)(ord.reverse)}/*** Returns the first k (smallest) elements from this RDD as defined by the specified* implicit Ordering[T] and maintains the ordering. This does the opposite of [[top]].* For example:* {{{* sc.parallelize(Seq(10, 4, 2, 12, 3)).takeOrdered(1)* // returns Array(2)** sc.parallelize(Seq(2, 3, 4, 5, 6)).takeOrdered(2)* // returns Array(2, 3)* }}}** @note This method should only be used if the resulting array is expected to be small, as* all the data is loaded into the driver's memory.** @param num k, the number of elements to return* @param ord the implicit ordering for T* @return an array of top elements*/def takeOrdered(num: Int)(implicit ord: Ordering[T]): Array[T] = withScope {if (num == 0) {Array.empty} else {val mapRDDs = mapPartitions { items =>// Priority keeps the largest elements, so let's reverse the ordering.val queue = new BoundedPriorityQueue[T](num)(ord.reverse)queue ++= collectionUtils.takeOrdered(items, num)(ord)Iterator.single(queue)}if (mapRDDs.partitions.length == 0) {Array.empty} else {mapRDDs.reduce { (queue1, queue2) =>queue1 ++= queue2queue1}.toArray.sorted(ord)}}}復(fù)制代碼scala> val c = sc.parallelize(Array(1,2,3,5,3,8,7,97,32),2) c: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[31] at parallelize at <console>:24 scala> c.top(3) res10: Array[Int] = Array(97, 32, 8)復(fù)制代碼

count

count方法計(jì)算返回RDD中元素的個(gè)數(shù)。

/*** Return the number of elements in the RDD.*/def count(): Long = sc.runJob(this, Utils.getIteratorSize _).sum復(fù)制代碼scala> val c = sc.parallelize(Array(1,2,3,5,3,8,7,97,32),2) c: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[33] at parallelize at <console>:24 scala> c.count res11: Long = 9復(fù)制代碼

takeSample

返回一個(gè)固定大小的數(shù)組形式的采樣子集,此外還會(huì)把返回元素的順序隨機(jī)打亂。

/*** Return a fixed-size sampled subset of this RDD in an array** @param withReplacement whether sampling is done with replacement* @param num size of the returned sample* @param seed seed for the random number generator* @return sample of specified size in an array** @note this method should only be used if the resulting array is expected to be small, as* all the data is loaded into the driver's memory.*/def takeSample(withReplacement: Boolean,num: Int,seed: Long = Utils.random.nextLong): Array[T] = withScope {val numStDev = 10.0require(num >= 0, "Negative number of elements requested")require(num <= (Int.MaxValue - (numStDev * math.sqrt(Int.MaxValue)).toInt),"Cannot support a sample size > Int.MaxValue - " +s"$numStDev * math.sqrt(Int.MaxValue)")if (num == 0) {new Array[T](0)} else {val initialCount = this.count()if (initialCount == 0) {new Array[T](0)} else {val rand = new Random(seed)if (!withReplacement && num >= initialCount) {Utils.randomizeInPlace(this.collect(), rand)} else {val fraction = SamplingUtils.computeFractionForSampleSize(num, initialCount,withReplacement)var samples = this.sample(withReplacement, fraction, rand.nextInt()).collect()// If the first sample didn't turn out large enough, keep trying to take samples;// this shouldn't happen often because we use a big multiplier for the initial sizevar numIters = 0while (samples.length < num) {logWarning(s"Needed to re-sample due to insufficient sample size. Repeat #$numIters")samples = this.sample(withReplacement, fraction, rand.nextInt()).collect()numIters += 1}Utils.randomizeInPlace(samples, rand).take(num)}}}}復(fù)制代碼scala> val c = sc.parallelize(Array(1,2,3,5,3,8,7,97,32),2) c: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[34] at parallelize at <console>:24 scala> c.takeSample(true,3, 1) res14: Array[Int] = Array(1, 3, 7)復(fù)制代碼

saveAsTextFile

將RDD存儲為文本文件,一次存一行

countByKey

類似count,但是countByKey會(huì)根據(jù)Key計(jì)算對應(yīng)的Value個(gè)數(shù),返回Map類型的結(jié)果。

/*** Count the number of elements for each key, collecting the results to a local Map.** @note This method should only be used if the resulting map is expected to be small, as* the whole thing is loaded into the driver's memory.* To handle very large results, consider using rdd.mapValues(_ => 1L).reduceByKey(_ + _), which* returns an RDD[T, Long] instead of a map.*/def countByKey(): Map[K, Long] = self.withScope {self.mapValues(_ => 1L).reduceByKey(_ + _).collect().toMap}復(fù)制代碼scala> val c = sc.parallelize(List("fig", "wc", "sbb", "zq","xwc","dcp"), 2) c: org.apache.spark.rdd.RDD[String] = ParallelCollectionRDD[36] at parallelize at <console>:24 scala> val d = c.keyBy(_.length) d: org.apache.spark.rdd.RDD[(Int, String)] = MapPartitionsRDD[37] at keyBy at <console>:25 scala> d.countByKey res15: scala.collection.Map[Int,Long] = Map(2 -> 2, 3 -> 4)復(fù)制代碼

aggregate

/*** Aggregate the elements of each partition, and then the results for all the partitions, using* given combine functions and a neutral "zero value". This function can return a different result* type, U, than the type of this RDD, T. Thus, we need one operation for merging a T into an U* and one operation for merging two U's, as in scala.TraversableOnce. Both of these functions are* allowed to modify and return their first argument instead of creating a new U to avoid memory* allocation.** @param zeroValue the initial value for the accumulated result of each partition for the* `seqOp` operator, and also the initial value for the combine results from* different partitions for the `combOp` operator - this will typically be the* neutral element (e.g. `Nil` for list concatenation or `0` for summation)* @param seqOp an operator used to accumulate results within a partition* @param combOp an associative operator used to combine results from different partitions*/def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U = withScope {// Clone the zero value since we will also be serializing it as part of tasksvar jobResult = Utils.clone(zeroValue, sc.env.serializer.newInstance())val cleanSeqOp = sc.clean(seqOp)val cleanCombOp = sc.clean(combOp)val aggregatePartition = (it: Iterator[T]) => it.aggregate(zeroValue)(cleanSeqOp, cleanCombOp)val mergeResult = (index: Int, taskResult: U) => jobResult = combOp(jobResult, taskResult)sc.runJob(this, aggregatePartition, mergeResult)jobResult}復(fù)制代碼

fold

/*** Aggregate the elements of each partition, and then the results for all the partitions, using a* given associative function and a neutral "zero value". The function* op(t1, t2) is allowed to modify t1 and return it as its result value to avoid object* allocation; however, it should not modify t2.** This behaves somewhat differently from fold operations implemented for non-distributed* collections in functional languages like Scala. This fold operation may be applied to* partitions individually, and then fold those results into the final result, rather than* apply the fold to each element sequentially in some defined ordering. For functions* that are not commutative, the result may differ from that of a fold applied to a* non-distributed collection.** @param zeroValue the initial value for the accumulated result of each partition for the `op`* operator, and also the initial value for the combine results from different* partitions for the `op` operator - this will typically be the neutral* element (e.g. `Nil` for list concatenation or `0` for summation)* @param op an operator used to both accumulate results within a partition and combine results* from different partitions*/def fold(zeroValue: T)(op: (T, T) => T): T = withScope {// Clone the zero value since we will also be serializing it as part of tasksvar jobResult = Utils.clone(zeroValue, sc.env.closureSerializer.newInstance())val cleanOp = sc.clean(op)val foldPartition = (iter: Iterator[T]) => iter.fold(zeroValue)(cleanOp)val mergeResult = (index: Int, taskResult: T) => jobResult = op(jobResult, taskResult)sc.runJob(this, foldPartition, mergeResult)jobResult}復(fù)制代碼

轉(zhuǎn)載于:https://juejin.im/post/5cfdf178e51d454d1d6284e8

總結(jié)

以上是生活随笔為你收集整理的Spark学习之Spark RDD算子的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

国产99久久精品一区二区 | 成人无码视频免费播放 | 天下第一社区视频www日本 | 日本精品高清一区二区 | 国产高清不卡无码视频 | 久久久久se色偷偷亚洲精品av | 久9re热视频这里只有精品 | 水蜜桃亚洲一二三四在线 | 国产疯狂伦交大片 | 99久久99久久免费精品蜜桃 | 国产亚洲tv在线观看 | 高潮毛片无遮挡高清免费 | 九九久久精品国产免费看小说 | 国产一区二区三区精品视频 | 中文字幕乱码人妻无码久久 | 99久久99久久免费精品蜜桃 | 无码av最新清无码专区吞精 | 一二三四社区在线中文视频 | 国产成人无码区免费内射一片色欲 | 天天拍夜夜添久久精品大 | 偷窥村妇洗澡毛毛多 | 久久成人a毛片免费观看网站 | 国产精品丝袜黑色高跟鞋 | 国产超碰人人爽人人做人人添 | 国产成人一区二区三区在线观看 | 国产亚洲精品久久久久久久久动漫 | 学生妹亚洲一区二区 | 久久人人爽人人爽人人片av高清 | 国产网红无码精品视频 | 日韩欧美群交p片內射中文 | 成人免费视频视频在线观看 免费 | 国产成人综合色在线观看网站 | 中文字幕乱码中文乱码51精品 | 成人无码影片精品久久久 | 亚洲狠狠婷婷综合久久 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产精品高潮呻吟av久久 | 色综合久久久无码网中文 | 性史性农村dvd毛片 | 无遮无挡爽爽免费视频 | 欧美放荡的少妇 | 性色av无码免费一区二区三区 | 亚洲色大成网站www | 真人与拘做受免费视频一 | 精品国偷自产在线视频 | 亚洲经典千人经典日产 | 女人色极品影院 | 又黄又爽又色的视频 | av在线亚洲欧洲日产一区二区 | 色窝窝无码一区二区三区色欲 | 午夜嘿嘿嘿影院 | 亚洲国产精品无码久久久久高潮 | 99久久精品国产一区二区蜜芽 | 亚洲人成影院在线观看 | 人妻人人添人妻人人爱 | 精品无码一区二区三区爱欲 | 麻豆国产人妻欲求不满谁演的 | 一二三四社区在线中文视频 | 欧美人与禽猛交狂配 | 色五月五月丁香亚洲综合网 | 性色欲情网站iwww九文堂 | 国产成人精品必看 | 亚洲人成影院在线无码按摩店 | 免费看少妇作爱视频 | 国产特级毛片aaaaaaa高清 | 久久综合网欧美色妞网 | 一区二区三区乱码在线 | 欧洲 | 国语自产偷拍精品视频偷 | 亚洲一区二区三区 | 强开小婷嫩苞又嫩又紧视频 | 狠狠色噜噜狠狠狠7777奇米 | 国产精品18久久久久久麻辣 | 色五月丁香五月综合五月 | 婷婷丁香六月激情综合啪 | 日本免费一区二区三区最新 | 国产精品久久久久久久影院 | 欧美人与物videos另类 | 中文字幕日韩精品一区二区三区 | 亚洲日韩精品欧美一区二区 | 特级做a爰片毛片免费69 | 人人澡人人妻人人爽人人蜜桃 | 亚洲狠狠色丁香婷婷综合 | 一二三四在线观看免费视频 | 久久午夜夜伦鲁鲁片无码免费 | 日本精品人妻无码77777 天堂一区人妻无码 | 少妇被黑人到高潮喷出白浆 | 人人爽人人爽人人片av亚洲 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 色综合久久久无码网中文 | 精品国产一区二区三区av 性色 | 性色欲情网站iwww九文堂 | 狠狠cao日日穞夜夜穞av | 亚洲人成网站免费播放 | 成年美女黄网站色大免费视频 | 真人与拘做受免费视频 | 国产一区二区三区影院 | 免费人成网站视频在线观看 | 在线a亚洲视频播放在线观看 | 国产97色在线 | 免 | 亚洲人成人无码网www国产 | 高潮毛片无遮挡高清免费 | 免费观看的无遮挡av | 少妇性l交大片 | 老子影院午夜精品无码 | 永久免费观看美女裸体的网站 | 亚洲日本在线电影 | 欧美一区二区三区视频在线观看 | 免费国产黄网站在线观看 | av无码久久久久不卡免费网站 | 久久午夜无码鲁丝片秋霞 | 亚洲精品鲁一鲁一区二区三区 | 欧美 日韩 人妻 高清 中文 | 粗大的内捧猛烈进出视频 | 日日摸日日碰夜夜爽av | 国产精品99久久精品爆乳 | 成熟妇人a片免费看网站 | 动漫av网站免费观看 | 国产人妻大战黑人第1集 | 大屁股大乳丰满人妻 | 亚洲s码欧洲m码国产av | 无码人妻久久一区二区三区不卡 | 婷婷丁香六月激情综合啪 | 国产免费久久精品国产传媒 | 久久精品国产99久久6动漫 | 99久久久国产精品无码免费 | 精品一区二区不卡无码av | 亚洲区小说区激情区图片区 | 亚洲成色www久久网站 | 日日躁夜夜躁狠狠躁 | 亚洲人成影院在线观看 | 国产亚洲视频中文字幕97精品 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 日日摸夜夜摸狠狠摸婷婷 | 国产明星裸体无码xxxx视频 | 亚洲自偷自拍另类第1页 | 精品无码国产自产拍在线观看蜜 | 狠狠色欧美亚洲狠狠色www | 国产一区二区不卡老阿姨 | 六十路熟妇乱子伦 | 欧美成人高清在线播放 | 蜜桃视频韩日免费播放 | 国产又粗又硬又大爽黄老大爷视 | 精品国产一区二区三区四区在线看 | 人人澡人人透人人爽 | 亚洲小说春色综合另类 | 一本色道久久综合狠狠躁 | 久久视频在线观看精品 | 国产熟妇高潮叫床视频播放 | 无码帝国www无码专区色综合 | 少妇无套内谢久久久久 | 99re在线播放 | 一本大道久久东京热无码av | 日本乱偷人妻中文字幕 | 日韩精品成人一区二区三区 | 国产成人精品视频ⅴa片软件竹菊 | 欧洲欧美人成视频在线 | 免费观看又污又黄的网站 | 少妇无套内谢久久久久 | 狠狠色噜噜狠狠狠7777奇米 | 日韩精品无码一区二区中文字幕 | 女人被爽到呻吟gif动态图视看 | 久久综合九色综合欧美狠狠 | 狂野欧美性猛xxxx乱大交 | 宝宝好涨水快流出来免费视频 | 性色欲网站人妻丰满中文久久不卡 | 亚洲熟妇自偷自拍另类 | 精品欧洲av无码一区二区三区 | 2020久久香蕉国产线看观看 | 国产农村乱对白刺激视频 | 99久久无码一区人妻 | 国产亚洲精品久久久久久大师 | 人妻天天爽夜夜爽一区二区 | 亚洲国产成人a精品不卡在线 | 欧洲极品少妇 | 人人妻人人澡人人爽人人精品 | 亚洲精品综合一区二区三区在线 | 自拍偷自拍亚洲精品10p | 欧洲美熟女乱又伦 | 久久99精品国产.久久久久 | 中文字幕av日韩精品一区二区 | 正在播放老肥熟妇露脸 | 一本久久伊人热热精品中文字幕 | 曰本女人与公拘交酡免费视频 | 国产午夜无码视频在线观看 | 无码免费一区二区三区 | 好爽又高潮了毛片免费下载 | 成熟妇人a片免费看网站 | 久久久久se色偷偷亚洲精品av | 麻豆av传媒蜜桃天美传媒 | 久久精品无码一区二区三区 | 无码毛片视频一区二区本码 | 欧美阿v高清资源不卡在线播放 | 日韩精品无码一本二本三本色 | 麻豆国产97在线 | 欧洲 | 国内精品人妻无码久久久影院蜜桃 | av无码不卡在线观看免费 | 国精产品一品二品国精品69xx | 中文字幕无线码免费人妻 | 精品久久久无码中文字幕 | 国产成人一区二区三区别 | 久久精品国产一区二区三区肥胖 | 国语精品一区二区三区 | 中文无码成人免费视频在线观看 | 国产人妻人伦精品 | 国产真实伦对白全集 | 国产成人综合在线女婷五月99播放 | 久久久婷婷五月亚洲97号色 | 欧美黑人乱大交 | 人妻无码αv中文字幕久久琪琪布 | 精品无码国产自产拍在线观看蜜 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 奇米影视7777久久精品 | 人人爽人人澡人人高潮 | 99久久人妻精品免费二区 | 人人澡人摸人人添 | 精品一区二区三区波多野结衣 | 精品无码成人片一区二区98 | 欧美日韩一区二区三区自拍 | 中文字幕精品av一区二区五区 | 国产精品无码永久免费888 | 亚洲色在线无码国产精品不卡 | 亚洲人成网站色7799 | 国产熟女一区二区三区四区五区 | 国内精品久久毛片一区二区 | 亚洲区小说区激情区图片区 | 粗大的内捧猛烈进出视频 | 无码人妻久久一区二区三区不卡 | 中文久久乱码一区二区 | 日本丰满熟妇videos | 国产精品免费大片 | 亚洲熟妇色xxxxx欧美老妇 | 国产乱码精品一品二品 | 久久久精品人妻久久影视 | 2020最新国产自产精品 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 男人和女人高潮免费网站 | 中文字幕无码日韩欧毛 | 玩弄中年熟妇正在播放 | 久久国语露脸国产精品电影 | 亚洲国产综合无码一区 | 国产av剧情md精品麻豆 | 四虎国产精品免费久久 | 乱人伦人妻中文字幕无码久久网 | 精品久久久无码中文字幕 | 男女下面进入的视频免费午夜 | 人妻少妇精品无码专区动漫 | 玩弄中年熟妇正在播放 | 国产97在线 | 亚洲 | 中文字幕av日韩精品一区二区 | 国产亚洲精品久久久ai换 | 综合激情五月综合激情五月激情1 | 天天爽夜夜爽夜夜爽 | 扒开双腿吃奶呻吟做受视频 | 亚拍精品一区二区三区探花 | 国产成人亚洲综合无码 | 亚洲大尺度无码无码专区 | 亚洲欧美国产精品专区久久 | 2019午夜福利不卡片在线 | 精品国产福利一区二区 | 国产av人人夜夜澡人人爽麻豆 | 永久免费精品精品永久-夜色 | 国产综合色产在线精品 | 久久综合网欧美色妞网 | √天堂资源地址中文在线 | 国产亚洲精品久久久久久久 | 国产成人精品一区二区在线小狼 | 亚洲熟悉妇女xxx妇女av | 国产成人午夜福利在线播放 | 婷婷综合久久中文字幕蜜桃三电影 | 日日摸日日碰夜夜爽av | 欧美一区二区三区 | 久久aⅴ免费观看 | 免费看男女做好爽好硬视频 | 激情内射亚州一区二区三区爱妻 | 国产超级va在线观看视频 | 亚洲色偷偷男人的天堂 | 久久99精品国产.久久久久 | 国产成人综合色在线观看网站 | 高中生自慰www网站 | 中文字幕日产无线码一区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 999久久久国产精品消防器材 | 亚洲精品鲁一鲁一区二区三区 | 日本一区二区更新不卡 | 亚洲精品一区三区三区在线观看 | 日韩av无码一区二区三区 | 国产成人综合在线女婷五月99播放 | 欧美性猛交内射兽交老熟妇 | 欧美猛少妇色xxxxx | 色综合久久久无码中文字幕 | 亚洲国产欧美国产综合一区 | 大肉大捧一进一出好爽视频 | 精品国产福利一区二区 | 国产精品无码一区二区桃花视频 | 色综合视频一区二区三区 | 亚洲一区二区三区四区 | 高潮喷水的毛片 | 无码帝国www无码专区色综合 | 亚洲熟妇色xxxxx欧美老妇 | 一本无码人妻在中文字幕免费 | 日产国产精品亚洲系列 | 亚洲日韩一区二区三区 | 国精产品一品二品国精品69xx | 免费视频欧美无人区码 | 无码av最新清无码专区吞精 | 偷窥村妇洗澡毛毛多 | 97资源共享在线视频 | 动漫av网站免费观看 | 无码av最新清无码专区吞精 | 一个人看的www免费视频在线观看 | 在线欧美精品一区二区三区 | 国产精品理论片在线观看 | 亚洲高清偷拍一区二区三区 | 少妇高潮喷潮久久久影院 | 精品一二三区久久aaa片 | 国产sm调教视频在线观看 | 亚洲欧美日韩成人高清在线一区 | 98国产精品综合一区二区三区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 日日鲁鲁鲁夜夜爽爽狠狠 | 免费乱码人妻系列无码专区 | 狂野欧美性猛xxxx乱大交 | 超碰97人人射妻 | 国内精品久久毛片一区二区 | 亚洲国产日韩a在线播放 | 国产精品久久久久影院嫩草 | 一本久道高清无码视频 | 人人爽人人澡人人高潮 | 国产综合久久久久鬼色 | 男女爱爱好爽视频免费看 | 色综合久久久无码中文字幕 | 欧美成人免费全部网站 | 高潮毛片无遮挡高清免费视频 | 亚洲区欧美区综合区自拍区 | 国产农村妇女高潮大叫 | 国产成人无码一二三区视频 | 动漫av一区二区在线观看 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 少妇邻居内射在线 | 无码毛片视频一区二区本码 | 日日碰狠狠丁香久燥 | 国产美女极度色诱视频www | 少妇无码av无码专区在线观看 | 熟妇人妻中文av无码 | 精品国产aⅴ无码一区二区 | 俺去俺来也在线www色官网 | 日本饥渴人妻欲求不满 | 极品尤物被啪到呻吟喷水 | 久久国产精品二国产精品 | 国产乱人伦av在线无码 | 色综合久久88色综合天天 | 日韩人妻无码一区二区三区久久99 | 一个人看的www免费视频在线观看 | 激情国产av做激情国产爱 | 无套内谢的新婚少妇国语播放 | 成在人线av无码免观看麻豆 | 日本成熟视频免费视频 | 国产小呦泬泬99精品 | 久久97精品久久久久久久不卡 | 国精产品一品二品国精品69xx | 欧美日韩久久久精品a片 | 国产人妻大战黑人第1集 | 久久精品国产大片免费观看 | 人妻插b视频一区二区三区 | 国产精品无码永久免费888 | 亚洲精品一区二区三区四区五区 | 国産精品久久久久久久 | 亚洲国产日韩a在线播放 | 日本xxxx色视频在线观看免费 | 在线亚洲高清揄拍自拍一品区 | 黑人巨大精品欧美黑寡妇 | 伊人久久大香线蕉午夜 | 天天躁日日躁狠狠躁免费麻豆 | 国产午夜福利亚洲第一 | 四十如虎的丰满熟妇啪啪 | 秋霞特色aa大片 | 免费国产黄网站在线观看 | 亚洲の无码国产の无码影院 | 久久精品国产一区二区三区肥胖 | 正在播放东北夫妻内射 | 色综合久久久久综合一本到桃花网 | 内射欧美老妇wbb | 久久精品国产一区二区三区 | 久久综合久久自在自线精品自 | 国产成人无码av一区二区 | 亚洲精品久久久久久久久久久 | 精品亚洲成av人在线观看 | 久久国产精品萌白酱免费 | 国精品人妻无码一区二区三区蜜柚 | 久久久中文久久久无码 | 久久久中文久久久无码 | 成人无码视频在线观看网站 | 少妇性l交大片欧洲热妇乱xxx | 国产偷自视频区视频 | 亚洲色偷偷偷综合网 | 久在线观看福利视频 | 天天摸天天透天天添 | 欧美日韩一区二区免费视频 | 国产国语老龄妇女a片 | 中文字幕日产无线码一区 | 国产一区二区三区精品视频 | 国精品人妻无码一区二区三区蜜柚 | 久久久精品成人免费观看 | 男人的天堂av网站 | 真人与拘做受免费视频一 | 99久久久国产精品无码免费 | ass日本丰满熟妇pics | 一本色道久久综合亚洲精品不卡 | 亚洲国产午夜精品理论片 | 欧美成人午夜精品久久久 | 免费乱码人妻系列无码专区 | 国产精品美女久久久网av | 少妇无码吹潮 | 国产精品18久久久久久麻辣 | 无码毛片视频一区二区本码 | 午夜福利不卡在线视频 | 色婷婷综合激情综在线播放 | 精品欧洲av无码一区二区三区 | 精品国产一区二区三区av 性色 | 欧美老妇与禽交 | 亚洲人成人无码网www国产 | 亚洲爆乳精品无码一区二区三区 | 亚洲国产精华液网站w | 99国产精品白浆在线观看免费 | 97色伦图片97综合影院 | 无人区乱码一区二区三区 | 国产精品久久久午夜夜伦鲁鲁 | 国产熟妇另类久久久久 | 国产人妖乱国产精品人妖 | 亚洲中文字幕在线观看 | 婷婷五月综合缴情在线视频 | 久久精品国产99久久6动漫 | 成年美女黄网站色大免费视频 | 国产精品久久精品三级 | 亚洲爆乳精品无码一区二区三区 | 色窝窝无码一区二区三区色欲 | 鲁一鲁av2019在线 | 人妻aⅴ无码一区二区三区 | 波多野结衣 黑人 | 精品成在人线av无码免费看 | 国产日产欧产精品精品app | 亚洲午夜久久久影院 | 99久久人妻精品免费二区 | 99国产欧美久久久精品 | 国产精品美女久久久久av爽李琼 | 日韩无套无码精品 | 日本熟妇乱子伦xxxx | 特黄特色大片免费播放器图片 | 精品日本一区二区三区在线观看 | 亚洲人成影院在线无码按摩店 | 亚洲国产精华液网站w | 久久综合九色综合97网 | 成人片黄网站色大片免费观看 | 伊人久久大香线蕉亚洲 | 日日噜噜噜噜夜夜爽亚洲精品 | 色欲久久久天天天综合网精品 | 日日天日日夜日日摸 | 伊人久久大香线蕉av一区二区 | 国产亚洲精品久久久久久大师 | 亚洲国产精品一区二区美利坚 | 久久99国产综合精品 | 一区二区三区乱码在线 | 欧洲 | 久久久久99精品成人片 | 亚洲色大成网站www国产 | 美女黄网站人色视频免费国产 | 久久无码中文字幕免费影院蜜桃 | 成人三级无码视频在线观看 | 免费人成网站视频在线观看 | 自拍偷自拍亚洲精品被多人伦好爽 | 美女扒开屁股让男人桶 | 国产农村乱对白刺激视频 | 国产无遮挡又黄又爽免费视频 | 欧美激情内射喷水高潮 | 成年美女黄网站色大免费视频 | 999久久久国产精品消防器材 | 国产9 9在线 | 中文 | 无遮挡啪啪摇乳动态图 | 日韩人妻无码一区二区三区久久99 | 在线а√天堂中文官网 | 西西人体www44rt大胆高清 | 一本久道久久综合狠狠爱 | 人妻与老人中文字幕 | 欧美性生交活xxxxxdddd | 国产无套粉嫩白浆在线 | 精品久久久久久亚洲精品 | 精品少妇爆乳无码av无码专区 | 午夜精品久久久内射近拍高清 | 内射后入在线观看一区 | 少妇一晚三次一区二区三区 | 无码乱肉视频免费大全合集 | 国产精品人人爽人人做我的可爱 | 国产亚洲精品久久久久久大师 | 亚洲欧美中文字幕5发布 | yw尤物av无码国产在线观看 | 东京一本一道一二三区 | 女人被男人躁得好爽免费视频 | 骚片av蜜桃精品一区 | 久久精品中文闷骚内射 | 国产成人久久精品流白浆 | 亚洲熟悉妇女xxx妇女av | 无码一区二区三区在线 | 丰满少妇人妻久久久久久 | 成人精品天堂一区二区三区 | 亚洲国产高清在线观看视频 | 丰满少妇弄高潮了www | 乌克兰少妇xxxx做受 | 中文字幕无码日韩欧毛 | 亚洲日本一区二区三区在线 | 无套内谢的新婚少妇国语播放 | 天堂在线观看www | 99riav国产精品视频 | 亚洲va中文字幕无码久久不卡 | 午夜性刺激在线视频免费 | 天天拍夜夜添久久精品大 | 午夜熟女插插xx免费视频 | 国产手机在线αⅴ片无码观看 | 强开小婷嫩苞又嫩又紧视频 | 国产真实乱对白精彩久久 | 99精品视频在线观看免费 | 国产成人久久精品流白浆 | 国模大胆一区二区三区 | 亚洲欧美中文字幕5发布 | 亚洲精品一区二区三区婷婷月 | 国产高清不卡无码视频 | 免费人成网站视频在线观看 | 大地资源中文第3页 | 日本又色又爽又黄的a片18禁 | 窝窝午夜理论片影院 | 啦啦啦www在线观看免费视频 | 久久综合香蕉国产蜜臀av | 久久99精品国产.久久久久 | 日本精品高清一区二区 | 精品无码av一区二区三区 | 青青久在线视频免费观看 | 精品午夜福利在线观看 | 亚洲呦女专区 | 狠狠色丁香久久婷婷综合五月 | 天堂一区人妻无码 | 夜夜夜高潮夜夜爽夜夜爰爰 | 精品无码一区二区三区的天堂 | 日本精品人妻无码77777 天堂一区人妻无码 | 欧美性色19p | 亚洲精品成a人在线观看 | 沈阳熟女露脸对白视频 | av无码不卡在线观看免费 | 亚洲爆乳无码专区 | 1000部啪啪未满十八勿入下载 | 精品久久久久久人妻无码中文字幕 | 欧美大屁股xxxxhd黑色 | 亚洲国产精品一区二区第一页 | 午夜精品一区二区三区的区别 | 日本熟妇人妻xxxxx人hd | 亚洲伊人久久精品影院 | 中文无码伦av中文字幕 | 无套内谢老熟女 | 思思久久99热只有频精品66 | 国产99久久精品一区二区 | 乱中年女人伦av三区 | 在线亚洲高清揄拍自拍一品区 | 东京无码熟妇人妻av在线网址 | 免费国产成人高清在线观看网站 | 日产精品99久久久久久 | 免费观看的无遮挡av | 久久久久免费看成人影片 | 国产一区二区三区影院 | 亚洲呦女专区 | 国产精品国产自线拍免费软件 | 国产香蕉尹人综合在线观看 | 中文精品无码中文字幕无码专区 | 99久久人妻精品免费二区 | 无遮挡国产高潮视频免费观看 | 人妻体内射精一区二区三四 | 国产精品va在线观看无码 | 午夜性刺激在线视频免费 | 久久久久免费看成人影片 | 国产三级精品三级男人的天堂 | 99国产欧美久久久精品 | 77777熟女视频在线观看 а天堂中文在线官网 | 女人和拘做爰正片视频 | 欧美人与牲动交xxxx | 婷婷色婷婷开心五月四房播播 | 精品国产青草久久久久福利 | 日本又色又爽又黄的a片18禁 | 久久午夜无码鲁丝片 | 国产成人无码av片在线观看不卡 | 精品乱码久久久久久久 | 免费观看又污又黄的网站 | 国内揄拍国内精品少妇国语 | 亚洲欧美国产精品久久 | 国产亚洲美女精品久久久2020 | 中文字幕人妻无码一区二区三区 | 51国偷自产一区二区三区 | 伊在人天堂亚洲香蕉精品区 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲码国产精品高潮在线 | 亚洲精品午夜国产va久久成人 | 色欲人妻aaaaaaa无码 | 蜜桃视频插满18在线观看 | 极品尤物被啪到呻吟喷水 | 久久亚洲中文字幕无码 | 纯爱无遮挡h肉动漫在线播放 | 国产精品久久久午夜夜伦鲁鲁 | 国产激情综合五月久久 | 亚洲精品综合一区二区三区在线 | 无码人妻精品一区二区三区下载 | 人妻aⅴ无码一区二区三区 | 在线 国产 欧美 亚洲 天堂 | 99在线 | 亚洲 | 久精品国产欧美亚洲色aⅴ大片 | 午夜精品久久久内射近拍高清 | 午夜精品一区二区三区在线观看 | 国产精品无码成人午夜电影 | 国产午夜福利亚洲第一 | 亚洲成av人影院在线观看 | 亚洲熟妇色xxxxx欧美老妇y | 成人亚洲精品久久久久软件 | 欧美 丝袜 自拍 制服 另类 | 一个人看的www免费视频在线观看 | 女人高潮内射99精品 | 久久久久久久人妻无码中文字幕爆 | 国产精品久久久一区二区三区 | 中文无码伦av中文字幕 | 日本乱人伦片中文三区 | 无码人妻av免费一区二区三区 | 亚洲精品久久久久久久久久久 | 女高中生第一次破苞av | 色婷婷久久一区二区三区麻豆 | 国产精品美女久久久网av | 国产人成高清在线视频99最全资源 | 国产亚洲tv在线观看 | 熟妇人妻激情偷爽文 | 国产精品国产三级国产专播 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲中文字幕va福利 | 一二三四社区在线中文视频 | 一本久久a久久精品vr综合 | 久久久久久a亚洲欧洲av冫 | 亚洲自偷自拍另类第1页 | 久久久久se色偷偷亚洲精品av | 骚片av蜜桃精品一区 | 日韩精品无码免费一区二区三区 | 国产猛烈高潮尖叫视频免费 | 久久精品国产一区二区三区 | 亚洲日韩av片在线观看 | 久久久精品欧美一区二区免费 | 成人毛片一区二区 | 成人精品视频一区二区三区尤物 | 永久免费观看国产裸体美女 | 狠狠色欧美亚洲狠狠色www | 日本熟妇大屁股人妻 | 国产va免费精品观看 | 国产成人精品必看 | 呦交小u女精品视频 | 色五月五月丁香亚洲综合网 | 免费人成在线视频无码 | 99在线 | 亚洲 | 国产精品自产拍在线观看 | 日韩精品无码免费一区二区三区 | 国产两女互慰高潮视频在线观看 | 精品无码国产自产拍在线观看蜜 | 中文亚洲成a人片在线观看 | √8天堂资源地址中文在线 | 成年女人永久免费看片 | 欧美日韩一区二区免费视频 | 131美女爱做视频 | 亚洲欧美日韩国产精品一区二区 | 又大又黄又粗又爽的免费视频 | 久久久久99精品成人片 | 日本精品人妻无码77777 天堂一区人妻无码 | 国内少妇偷人精品视频免费 | 国产三级久久久精品麻豆三级 | 免费观看黄网站 | 亚洲大尺度无码无码专区 | 亚洲热妇无码av在线播放 | 人妻天天爽夜夜爽一区二区 | 久久久久se色偷偷亚洲精品av | 天干天干啦夜天干天2017 | 爱做久久久久久 | 国产在线aaa片一区二区99 | 国产亚洲精品精品国产亚洲综合 | 久久久精品欧美一区二区免费 | 97夜夜澡人人爽人人喊中国片 | 国产色精品久久人妻 | 国产精品美女久久久网av | 中文字幕人成乱码熟女app | 天堂在线观看www | 国产精品对白交换视频 | 亚洲精品国产a久久久久久 | 亚洲午夜久久久影院 | 牲欲强的熟妇农村老妇女视频 | 国产亚洲精品久久久ai换 | 欧美午夜特黄aaaaaa片 | 国产精品久久久久久亚洲毛片 | 国产日产欧产精品精品app | 国产婷婷色一区二区三区在线 | 老熟女乱子伦 | 亚洲精品久久久久中文第一幕 | 77777熟女视频在线观看 а天堂中文在线官网 | 免费观看的无遮挡av | 国产黄在线观看免费观看不卡 | 又大又紧又粉嫩18p少妇 | 久久午夜无码鲁丝片午夜精品 | 熟妇女人妻丰满少妇中文字幕 | 对白脏话肉麻粗话av | 国产午夜无码精品免费看 | 亚洲中文字幕成人无码 | 成人一在线视频日韩国产 | 欧美zoozzooz性欧美 | 中文字幕无线码 | 成人免费视频视频在线观看 免费 | 中文字幕乱码人妻无码久久 | а√天堂www在线天堂小说 | 亚洲熟女一区二区三区 | 大肉大捧一进一出视频出来呀 | 3d动漫精品啪啪一区二区中 | 亚洲精品一区二区三区婷婷月 | 欧美放荡的少妇 | 一个人看的www免费视频在线观看 | 精品人人妻人人澡人人爽人人 | 99久久人妻精品免费一区 | 亚洲一区二区三区播放 | 国产真实夫妇视频 | 亚洲午夜无码久久 | 高中生自慰www网站 | 精品人人妻人人澡人人爽人人 | 国产精品18久久久久久麻辣 | 亚洲熟女一区二区三区 | 国产无套粉嫩白浆在线 | 日韩亚洲欧美中文高清在线 | 强伦人妻一区二区三区视频18 | 国产欧美熟妇另类久久久 | 中文字幕乱妇无码av在线 | 精品成在人线av无码免费看 | 中国女人内谢69xxxx | ass日本丰满熟妇pics | 久久久久亚洲精品男人的天堂 | 中文字幕亚洲情99在线 | 男女爱爱好爽视频免费看 | 亚洲国产成人av在线观看 | 久久久久国色av免费观看性色 | 久久99精品久久久久久动态图 | 国产又粗又硬又大爽黄老大爷视 | 扒开双腿疯狂进出爽爽爽视频 | 日本一区二区三区免费播放 | 欧美zoozzooz性欧美 | 极品尤物被啪到呻吟喷水 | 免费无码的av片在线观看 | 麻豆av传媒蜜桃天美传媒 | 东京热男人av天堂 | 在线а√天堂中文官网 | 精品久久久久久人妻无码中文字幕 | 天下第一社区视频www日本 | 亚洲精品久久久久avwww潮水 | 99久久精品午夜一区二区 | 亚洲中文字幕无码中字 | 亚洲小说图区综合在线 | 动漫av一区二区在线观看 | 亚洲人成无码网www | 亚洲午夜久久久影院 | 日本精品少妇一区二区三区 | 中文字幕 亚洲精品 第1页 | 波多野结衣 黑人 | 男女超爽视频免费播放 | 亚洲欧美日韩国产精品一区二区 | 国产精品怡红院永久免费 | 国产精品免费大片 | а√天堂www在线天堂小说 | 荫蒂被男人添的好舒服爽免费视频 | 伊人久久婷婷五月综合97色 | 少妇厨房愉情理9仑片视频 | 亚洲中文字幕无码中字 | 精品夜夜澡人妻无码av蜜桃 | 2020久久超碰国产精品最新 | 中文字幕av无码一区二区三区电影 | 帮老师解开蕾丝奶罩吸乳网站 | 精品久久久无码中文字幕 | 性欧美疯狂xxxxbbbb | 六月丁香婷婷色狠狠久久 | 伊人久久大香线蕉av一区二区 | 亚洲精品久久久久久久久久久 | 久久精品女人天堂av免费观看 | 在线亚洲高清揄拍自拍一品区 | 国产亲子乱弄免费视频 | 亚洲小说图区综合在线 | 欧美第一黄网免费网站 | av无码电影一区二区三区 | 精品无人国产偷自产在线 | 高清无码午夜福利视频 | 成人欧美一区二区三区 | 老司机亚洲精品影院无码 | 成熟妇人a片免费看网站 | 西西人体www44rt大胆高清 | 麻豆成人精品国产免费 | 欧美日韩综合一区二区三区 | 正在播放东北夫妻内射 | 亚洲欧美中文字幕5发布 | 色偷偷人人澡人人爽人人模 | 国语自产偷拍精品视频偷 | 中文字幕乱妇无码av在线 | 欧美猛少妇色xxxxx | 高中生自慰www网站 | 亚洲色偷偷男人的天堂 | 狠狠躁日日躁夜夜躁2020 | 国产精品人妻一区二区三区四 | 波多野结衣乳巨码无在线观看 | 在线欧美精品一区二区三区 | 强开小婷嫩苞又嫩又紧视频 | aⅴ在线视频男人的天堂 | 久久久久99精品国产片 | 内射巨臀欧美在线视频 | 久久国内精品自在自线 | 亚洲午夜久久久影院 | 日韩少妇白浆无码系列 | 精品一区二区不卡无码av | 国产一区二区三区四区五区加勒比 | 性欧美熟妇videofreesex | 色老头在线一区二区三区 | 亚洲a无码综合a国产av中文 | 少妇无码av无码专区在线观看 | 国内精品久久毛片一区二区 | 国产福利视频一区二区 | 国产精品无码永久免费888 | 香蕉久久久久久av成人 | 免费无码的av片在线观看 | 夜精品a片一区二区三区无码白浆 | 久久国内精品自在自线 | 久久精品中文字幕一区 | 欧美精品免费观看二区 | 日韩欧美群交p片內射中文 | 欧美精品无码一区二区三区 | 熟女少妇人妻中文字幕 | 成 人 网 站国产免费观看 | 精品一区二区三区波多野结衣 | 亚洲а∨天堂久久精品2021 | 97夜夜澡人人爽人人喊中国片 | 亚洲欧洲无卡二区视頻 | 亚洲人成无码网www | 一本无码人妻在中文字幕免费 | 99精品国产综合久久久久五月天 | 午夜成人1000部免费视频 | 性做久久久久久久久 | 久久午夜无码鲁丝片午夜精品 | 亚洲精品综合一区二区三区在线 | 国产精品办公室沙发 | 精品偷拍一区二区三区在线看 | 三级4级全黄60分钟 | 日本一本二本三区免费 | 97色伦图片97综合影院 | 国产熟妇高潮叫床视频播放 | 色欲av亚洲一区无码少妇 | 国产精品亚洲一区二区三区喷水 | aⅴ亚洲 日韩 色 图网站 播放 | 无码国产色欲xxxxx视频 | 无码人妻精品一区二区三区下载 | 欧美xxxx黑人又粗又长 | 自拍偷自拍亚洲精品10p | 国产精品福利视频导航 | 乌克兰少妇xxxx做受 | 人妻与老人中文字幕 | 99久久人妻精品免费一区 | 97人妻精品一区二区三区 | 乱人伦人妻中文字幕无码久久网 | 麻豆人妻少妇精品无码专区 | 99国产精品白浆在线观看免费 | 国产内射老熟女aaaa | 免费无码的av片在线观看 | 午夜福利试看120秒体验区 | 久久视频在线观看精品 | 牛和人交xxxx欧美 | 熟妇人妻无码xxx视频 | √天堂资源地址中文在线 | 伊人久久大香线蕉午夜 | 日本熟妇人妻xxxxx人hd | 国内综合精品午夜久久资源 | 精品国产乱码久久久久乱码 | 在线欧美精品一区二区三区 | 无遮挡国产高潮视频免费观看 | 国产乱子伦视频在线播放 | 丁香花在线影院观看在线播放 | 人人妻人人澡人人爽人人精品浪潮 | 欧美放荡的少妇 | 欧美日韩色另类综合 | 大色综合色综合网站 | 人人妻人人澡人人爽人人精品 | 国内精品久久久久久中文字幕 | 在线播放免费人成毛片乱码 | 精品一区二区三区波多野结衣 | 国产精品成人av在线观看 | 精品少妇爆乳无码av无码专区 | 国产无av码在线观看 | 亚洲欧洲日本综合aⅴ在线 | 狠狠亚洲超碰狼人久久 | 日日碰狠狠躁久久躁蜜桃 | 亚洲国产成人a精品不卡在线 | 精品国产成人一区二区三区 | 精品午夜福利在线观看 | av无码不卡在线观看免费 | 成人三级无码视频在线观看 | 亚洲午夜无码久久 | 久久亚洲精品中文字幕无男同 | 亚洲精品一区二区三区四区五区 | 国产精品沙发午睡系列 | 日本肉体xxxx裸交 | 日本一区二区三区免费播放 | 日本一区二区三区免费播放 | 老子影院午夜伦不卡 | 女人被男人躁得好爽免费视频 | 精品无人区无码乱码毛片国产 | 国产激情无码一区二区app | 久久久婷婷五月亚洲97号色 | 亚洲色偷偷男人的天堂 | 久久国产36精品色熟妇 | 久久精品国产日本波多野结衣 | 97久久国产亚洲精品超碰热 | 国产成人综合美国十次 | 国产激情综合五月久久 | 无码中文字幕色专区 | 性开放的女人aaa片 | 麻豆国产97在线 | 欧洲 | 骚片av蜜桃精品一区 | 亚洲一区二区三区香蕉 | 欧美精品在线观看 | 国产午夜福利亚洲第一 | 亚洲 另类 在线 欧美 制服 | 免费视频欧美无人区码 | 蜜桃无码一区二区三区 | 成人免费视频视频在线观看 免费 | 欧美人与牲动交xxxx | 国产精品资源一区二区 | 欧美人与禽猛交狂配 | 欧美人与禽猛交狂配 | 骚片av蜜桃精品一区 | 好男人社区资源 | 蜜臀av无码人妻精品 | av无码不卡在线观看免费 | 亚洲色欲色欲天天天www | www国产亚洲精品久久网站 | 日韩少妇白浆无码系列 | av人摸人人人澡人人超碰下载 | 国产精品国产三级国产专播 | 日日摸夜夜摸狠狠摸婷婷 | 狠狠色噜噜狠狠狠狠7777米奇 | v一区无码内射国产 | 少女韩国电视剧在线观看完整 | 中文字幕亚洲情99在线 | 成人无码视频在线观看网站 | 中文字幕日韩精品一区二区三区 | 国产精品永久免费视频 | 夜夜躁日日躁狠狠久久av | 久久久成人毛片无码 | 成人无码精品1区2区3区免费看 | 欧美freesex黑人又粗又大 | 国产热a欧美热a在线视频 | 精品无码国产自产拍在线观看蜜 | 中文无码精品a∨在线观看不卡 | 天堂无码人妻精品一区二区三区 | 亚洲精品一区二区三区大桥未久 | 国产人妻久久精品二区三区老狼 | 国产精品高潮呻吟av久久 | 亚洲欧洲日本无在线码 | 国产精品无码一区二区桃花视频 | 超碰97人人射妻 | 国产一区二区三区日韩精品 | 熟妇女人妻丰满少妇中文字幕 | 又大又硬又黄的免费视频 | 亚洲欧美国产精品久久 | 婷婷色婷婷开心五月四房播播 | 美女黄网站人色视频免费国产 | 兔费看少妇性l交大片免费 | 曰本女人与公拘交酡免费视频 | 久在线观看福利视频 | 国产极品视觉盛宴 | 亚洲s码欧洲m码国产av | 亚洲色成人中文字幕网站 | 国产又粗又硬又大爽黄老大爷视 | 精品亚洲成av人在线观看 | 欧美放荡的少妇 | 日日天日日夜日日摸 | 97精品人妻一区二区三区香蕉 | 欧美黑人巨大xxxxx | 国产内射爽爽大片视频社区在线 | 国产亚洲日韩欧美另类第八页 | 亚无码乱人伦一区二区 | 丰满肥臀大屁股熟妇激情视频 | 日本精品人妻无码77777 天堂一区人妻无码 | 美女张开腿让人桶 | 国产精品毛片一区二区 | 一本色道久久综合亚洲精品不卡 | 国精产品一品二品国精品69xx | 强开小婷嫩苞又嫩又紧视频 | 99久久人妻精品免费一区 | 亚洲国产一区二区三区在线观看 | 丰满人妻一区二区三区免费视频 | 国产性生大片免费观看性 | 东北女人啪啪对白 | 久久www免费人成人片 | 四虎永久在线精品免费网址 | 麻豆果冻传媒2021精品传媒一区下载 | 婷婷五月综合缴情在线视频 | 色一情一乱一伦一视频免费看 | 99久久婷婷国产综合精品青草免费 | 精品人人妻人人澡人人爽人人 | 2020久久香蕉国产线看观看 | 强伦人妻一区二区三区视频18 | 人人爽人人爽人人片av亚洲 | 亚洲日韩中文字幕在线播放 | 国产精品办公室沙发 | 超碰97人人做人人爱少妇 | 国产精品香蕉在线观看 | 伊人久久大香线蕉av一区二区 | 国产精品亚洲专区无码不卡 | 成人一在线视频日韩国产 | 国产精品福利视频导航 | 免费观看的无遮挡av | 六月丁香婷婷色狠狠久久 | 成人免费视频视频在线观看 免费 | 无码av中文字幕免费放 | 欧美35页视频在线观看 | 性欧美videos高清精品 | 亚洲日韩av一区二区三区四区 | 最近免费中文字幕中文高清百度 | 精品一区二区三区无码免费视频 | v一区无码内射国产 | 成人综合网亚洲伊人 | 国产亚洲精品久久久闺蜜 | 3d动漫精品啪啪一区二区中 | 日本一区二区三区免费高清 | 久久久久成人片免费观看蜜芽 | 亚欧洲精品在线视频免费观看 | 中文字幕无码av激情不卡 | 欧美国产日韩久久mv | 精品无码一区二区三区的天堂 | 一区二区三区高清视频一 | 免费观看激色视频网站 | 99re在线播放 | 欧美性生交xxxxx久久久 | 午夜福利不卡在线视频 | 国产无av码在线观看 | 国产精品毛多多水多 | 骚片av蜜桃精品一区 | 鲁一鲁av2019在线 | 熟女俱乐部五十路六十路av | 亚洲国产日韩a在线播放 | 国产精品多人p群无码 | 欧美日本精品一区二区三区 | 美女张开腿让人桶 | 樱花草在线播放免费中文 | 无码人妻丰满熟妇区毛片18 | 丰满少妇人妻久久久久久 | 永久免费观看国产裸体美女 | 久久久婷婷五月亚洲97号色 | 日日碰狠狠躁久久躁蜜桃 | 久久久国产精品无码免费专区 | 精品成在人线av无码免费看 | 粗大的内捧猛烈进出视频 | 国产免费久久久久久无码 | 欧美黑人巨大xxxxx | 亚洲区欧美区综合区自拍区 | 久久久久av无码免费网 | 国产精品国产自线拍免费软件 | 欧美丰满少妇xxxx性 | 一二三四在线观看免费视频 | 成人一在线视频日韩国产 | 亚洲天堂2017无码中文 | 国产无套粉嫩白浆在线 | 日本www一道久久久免费榴莲 | 国产无遮挡吃胸膜奶免费看 | 少女韩国电视剧在线观看完整 | 亚洲理论电影在线观看 | 国产 浪潮av性色四虎 | 久久国产精品偷任你爽任你 | 国产精品久久久久久久9999 | 国产精品.xx视频.xxtv | 免费乱码人妻系列无码专区 | 蜜桃臀无码内射一区二区三区 | 夜夜高潮次次欢爽av女 | 丰满少妇高潮惨叫视频 | 高潮喷水的毛片 | 久久精品国产一区二区三区肥胖 | 午夜嘿嘿嘿影院 | 亚洲精品成人av在线 | 沈阳熟女露脸对白视频 | 中文字幕+乱码+中文字幕一区 | 久青草影院在线观看国产 | 国产极品视觉盛宴 | 欧美精品无码一区二区三区 | 给我免费的视频在线观看 | 亚洲一区二区三区含羞草 | 日本一区二区三区免费播放 | 国产精品美女久久久 | 狠狠色噜噜狠狠狠狠7777米奇 | 日日碰狠狠躁久久躁蜜桃 | 亚洲人成人无码网www国产 | 中文字幕日韩精品一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 欧美高清在线精品一区 | 成年美女黄网站色大免费视频 | 午夜理论片yy44880影院 | 国内揄拍国内精品人妻 | 国产精品第一区揄拍无码 | 99久久久无码国产aaa精品 | 精品国精品国产自在久国产87 | 中国大陆精品视频xxxx | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 波多野结衣aⅴ在线 | 欧美性猛交内射兽交老熟妇 | 激情综合激情五月俺也去 | 成 人 免费观看网站 | 亚洲人成网站在线播放942 | 国产特级毛片aaaaaaa高清 | 又粗又大又硬又长又爽 | 亚洲国产精品无码一区二区三区 | 丰满少妇高潮惨叫视频 | 精品人妻人人做人人爽夜夜爽 | 成人无码精品一区二区三区 | 狠狠色欧美亚洲狠狠色www | 性生交片免费无码看人 | 欧美老熟妇乱xxxxx | 西西人体www44rt大胆高清 | 性欧美大战久久久久久久 | 亚洲国产欧美日韩精品一区二区三区 | 思思久久99热只有频精品66 | 又粗又大又硬又长又爽 | 中文字幕人妻丝袜二区 | 亚洲 日韩 欧美 成人 在线观看 | 欧美大屁股xxxxhd黑色 | 国产精品久久久久9999小说 | 人妻人人添人妻人人爱 | 国内精品一区二区三区不卡 | 无码人妻丰满熟妇区毛片18 | 久久久久久九九精品久 | 又大又硬又黄的免费视频 | 国产av人人夜夜澡人人爽麻豆 | 亚洲综合色区中文字幕 | 一本一道久久综合久久 | 熟妇女人妻丰满少妇中文字幕 | 性开放的女人aaa片 | 内射老妇bbwx0c0ck | 国产在线aaa片一区二区99 | 欧美阿v高清资源不卡在线播放 | 女人被男人爽到呻吟的视频 | 欧美日韩一区二区免费视频 | 搡女人真爽免费视频大全 | 国产农村妇女高潮大叫 | 国产9 9在线 | 中文 | 未满成年国产在线观看 | 久久久www成人免费毛片 | 少妇高潮一区二区三区99 | 国产小呦泬泬99精品 | 蜜桃臀无码内射一区二区三区 | 精品久久久无码人妻字幂 | v一区无码内射国产 | 久久zyz资源站无码中文动漫 | 精品人妻人人做人人爽 | 亚洲精品成人av在线 | 99久久人妻精品免费二区 | 日韩亚洲欧美中文高清在线 | 4hu四虎永久在线观看 | 国产av剧情md精品麻豆 | 免费观看又污又黄的网站 | 国产网红无码精品视频 | 中文亚洲成a人片在线观看 | 欧美性猛交内射兽交老熟妇 | 国产精品对白交换视频 | 国产尤物精品视频 | 久久精品无码一区二区三区 | 久久精品丝袜高跟鞋 | 亚洲中文无码av永久不收费 | 国产成人午夜福利在线播放 | 亚洲日韩乱码中文无码蜜桃臀网站 | 无码人妻av免费一区二区三区 | 亚洲乱码日产精品bd | 丰满少妇女裸体bbw | 国产麻豆精品一区二区三区v视界 | 亚洲日本va午夜在线电影 | 国产xxx69麻豆国语对白 | 波多野结衣aⅴ在线 | 少妇无码吹潮 | 午夜理论片yy44880影院 | 免费国产黄网站在线观看 | 久久久无码中文字幕久... | 日本又色又爽又黄的a片18禁 | 亚洲日韩乱码中文无码蜜桃臀网站 | 蜜桃视频韩日免费播放 | 国产精品免费大片 | 国产性生交xxxxx无码 | 国产成人精品优优av | 搡女人真爽免费视频大全 | 久久国产劲爆∧v内射 | 亚洲精品国产第一综合99久久 | 亚洲国产欧美日韩精品一区二区三区 | 国产精品丝袜黑色高跟鞋 | 精品国产一区av天美传媒 | 在线观看免费人成视频 | 国产卡一卡二卡三 | 福利一区二区三区视频在线观看 | 国产性生大片免费观看性 | 成人无码视频免费播放 | 黄网在线观看免费网站 | 成人欧美一区二区三区黑人 | 欧美丰满老熟妇xxxxx性 | 精品人人妻人人澡人人爽人人 | 国产香蕉尹人综合在线观看 | 国産精品久久久久久久 | 国产精品无码成人午夜电影 | 九九久久精品国产免费看小说 | 午夜熟女插插xx免费视频 | 又大又黄又粗又爽的免费视频 | 日产精品高潮呻吟av久久 | 青青青手机频在线观看 | 久久无码人妻影院 | 中文字幕乱码亚洲无线三区 | 日本一卡2卡3卡四卡精品网站 | 精品成人av一区二区三区 | 十八禁视频网站在线观看 | 老子影院午夜精品无码 | 大乳丰满人妻中文字幕日本 | 蜜桃av抽搐高潮一区二区 | 久久精品国产一区二区三区 | 亚洲人成网站在线播放942 | 风流少妇按摩来高潮 | 日本www一道久久久免费榴莲 | 成人性做爰aaa片免费看 | 亚洲色欲色欲欲www在线 | 97久久国产亚洲精品超碰热 | 麻豆成人精品国产免费 | 在教室伦流澡到高潮hnp视频 | 亚洲熟悉妇女xxx妇女av | 久久综合给合久久狠狠狠97色 | 国产区女主播在线观看 | 欧美一区二区三区 | 偷窥村妇洗澡毛毛多 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲 另类 在线 欧美 制服 | 天天燥日日燥 | 天干天干啦夜天干天2017 | 欧美放荡的少妇 | 国产成人一区二区三区别 | 亚洲国产精品一区二区第一页 | 性色av无码免费一区二区三区 | 欧美性生交xxxxx久久久 | 国产人妻精品一区二区三区 | 久青草影院在线观看国产 | 国产免费观看黄av片 | 久久国产精品偷任你爽任你 | 精品成人av一区二区三区 | 亚洲国产成人av在线观看 | 国产在线aaa片一区二区99 | 国产无遮挡吃胸膜奶免费看 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲欧美国产精品专区久久 | 成人女人看片免费视频放人 | 亚洲精品中文字幕久久久久 | 日韩精品a片一区二区三区妖精 | 蜜臀aⅴ国产精品久久久国产老师 | 久久久av男人的天堂 | 未满成年国产在线观看 | www国产亚洲精品久久久日本 | 人妻天天爽夜夜爽一区二区 | 欧美freesex黑人又粗又大 | 国产香蕉尹人综合在线观看 | 麻豆人妻少妇精品无码专区 | 台湾无码一区二区 | 精品国产麻豆免费人成网站 | 日日麻批免费40分钟无码 | 国产又粗又硬又大爽黄老大爷视 | 老子影院午夜精品无码 | 成熟妇人a片免费看网站 | 又紧又大又爽精品一区二区 | 欧美阿v高清资源不卡在线播放 | 无码人妻av免费一区二区三区 | 99久久99久久免费精品蜜桃 | www国产亚洲精品久久久日本 | 国产熟妇另类久久久久 | 欧美黑人性暴力猛交喷水 | 骚片av蜜桃精品一区 | 精品久久久久久亚洲精品 | 兔费看少妇性l交大片免费 | 国产成人精品一区二区在线小狼 | 久久综合激激的五月天 | 日韩亚洲欧美精品综合 | 免费观看激色视频网站 | 99麻豆久久久国产精品免费 | 十八禁视频网站在线观看 | 女人被男人躁得好爽免费视频 | 欧美黑人性暴力猛交喷水 | 亚洲码国产精品高潮在线 | 一本加勒比波多野结衣 | av无码电影一区二区三区 | 在线a亚洲视频播放在线观看 | 国产亚洲精品久久久久久久 | 日本www一道久久久免费榴莲 | 国产精品无码一区二区桃花视频 | 亚洲国产成人av在线观看 | 婷婷色婷婷开心五月四房播播 | 色综合视频一区二区三区 | 内射后入在线观看一区 | 一个人看的视频www在线 | 国产9 9在线 | 中文 | 成人精品一区二区三区中文字幕 | 亚洲一区二区三区播放 | 久久精品女人天堂av免费观看 | 久久精品成人欧美大片 | 无码帝国www无码专区色综合 | 国产av人人夜夜澡人人爽麻豆 | 狂野欧美激情性xxxx | 国产亚洲精品久久久久久国模美 | 中文字幕乱码人妻二区三区 | 国产后入清纯学生妹 | 日本一区二区更新不卡 | 国产在热线精品视频 | 中文无码精品a∨在线观看不卡 | 国产成人无码av一区二区 | 精品国偷自产在线视频 | 天天躁夜夜躁狠狠是什么心态 | 乱人伦人妻中文字幕无码久久网 | 精品久久久久久人妻无码中文字幕 | 日本精品久久久久中文字幕 | 欧洲欧美人成视频在线 | 人妻少妇精品无码专区二区 | 丰腴饱满的极品熟妇 | 国产午夜无码精品免费看 | 欧美精品在线观看 | 日产精品高潮呻吟av久久 | 久久人人爽人人爽人人片av高清 | 国内少妇偷人精品视频 | 亚洲国产精品久久久天堂 | 2020久久超碰国产精品最新 | 国产在线一区二区三区四区五区 | 久久精品女人的天堂av | 国产精品第一区揄拍无码 | 无码国内精品人妻少妇 | 久久99精品国产麻豆蜜芽 | 亚洲色大成网站www国产 | 永久免费观看美女裸体的网站 | 5858s亚洲色大成网站www | 亚洲中文字幕成人无码 | 精品无码一区二区三区爱欲 | 天堂а√在线地址中文在线 | 狠狠色色综合网站 | 亚洲精品综合一区二区三区在线 | 亚洲精品一区三区三区在线观看 | 日韩精品无码一区二区中文字幕 | 亚洲色欲色欲天天天www | 黑人巨大精品欧美黑寡妇 | 精品日本一区二区三区在线观看 | 亚洲精品成a人在线观看 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产午夜视频在线观看 | 免费无码肉片在线观看 | 熟妇人妻中文av无码 | 亚洲精品中文字幕 | 小泽玛莉亚一区二区视频在线 | 久久午夜夜伦鲁鲁片无码免费 | 久久亚洲日韩精品一区二区三区 | 中文字幕亚洲情99在线 | 国产精品久久久av久久久 | 日韩精品乱码av一区二区 | 亚洲乱码国产乱码精品精 | 国产午夜福利100集发布 | 日本一区二区更新不卡 | 成人欧美一区二区三区 | 日韩少妇白浆无码系列 | 又大又硬又爽免费视频 | 西西人体www44rt大胆高清 | 国产又爽又猛又粗的视频a片 | 亚洲国产精品久久人人爱 | av无码电影一区二区三区 | 无遮挡啪啪摇乳动态图 | 国产精品国产三级国产专播 | 国产精品美女久久久久av爽李琼 | 成人免费视频一区二区 | 久久精品国产一区二区三区 | 俺去俺来也在线www色官网 | 久久久久久亚洲精品a片成人 | 欧美日韩久久久精品a片 | 欧美熟妇另类久久久久久不卡 | 中文字幕无码av激情不卡 | 妺妺窝人体色www在线小说 | 亚洲男人av香蕉爽爽爽爽 | 欧美日本免费一区二区三区 | 牛和人交xxxx欧美 | 动漫av网站免费观看 | 女人被爽到呻吟gif动态图视看 | 99久久久国产精品无码免费 | 西西人体www44rt大胆高清 | 国产精品久久久午夜夜伦鲁鲁 | 一本大道久久东京热无码av | 久久国产精品萌白酱免费 | 午夜肉伦伦影院 | 免费国产黄网站在线观看 | 天堂无码人妻精品一区二区三区 | 色欲久久久天天天综合网精品 | 日韩精品a片一区二区三区妖精 | 97无码免费人妻超级碰碰夜夜 | 综合激情五月综合激情五月激情1 | 最近中文2019字幕第二页 | 国产明星裸体无码xxxx视频 | 国产精品久久福利网站 | 亚洲区小说区激情区图片区 | 国产精品久久久久久亚洲毛片 | 久久精品国产99久久6动漫 | 精品熟女少妇av免费观看 | 国产超级va在线观看视频 | 精品乱子伦一区二区三区 | 久久www免费人成人片 | 97人妻精品一区二区三区 | 99久久久无码国产精品免费 | 熟妇人妻激情偷爽文 | 国产特级毛片aaaaaa高潮流水 | 国产午夜亚洲精品不卡下载 | 999久久久国产精品消防器材 | 巨爆乳无码视频在线观看 | 久久99精品国产.久久久久 | 色欲久久久天天天综合网精品 | 色窝窝无码一区二区三区色欲 | 97久久精品无码一区二区 | 亚洲熟妇自偷自拍另类 | 99久久精品日本一区二区免费 | 内射巨臀欧美在线视频 | 亚洲国产午夜精品理论片 | 一本色道婷婷久久欧美 | 六十路熟妇乱子伦 | 激情亚洲一区国产精品 | 亚洲爆乳大丰满无码专区 | 色婷婷久久一区二区三区麻豆 | 性欧美疯狂xxxxbbbb | 亚洲中文字幕无码中字 | 成人无码精品1区2区3区免费看 | 国产亚洲精品久久久ai换 | 亚洲无人区午夜福利码高清完整版 | 对白脏话肉麻粗话av | 中文字幕无码免费久久9一区9 | 国产精品人人妻人人爽 | 精品久久久无码人妻字幂 | 极品尤物被啪到呻吟喷水 | 亚洲 a v无 码免 费 成 人 a v | 一本一道久久综合久久 | 牲欲强的熟妇农村老妇女 | 亚洲精品一区二区三区在线 | 欧美成人高清在线播放 | 久久国产精品萌白酱免费 | 精品偷自拍另类在线观看 | 精品国产成人一区二区三区 | 激情亚洲一区国产精品 | 动漫av一区二区在线观看 | 国产精品美女久久久久av爽李琼 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 欧美大屁股xxxxhd黑色 | 成 人影片 免费观看 | 成人av无码一区二区三区 | 中文字幕无码av激情不卡 | 性欧美牲交xxxxx视频 | 中文字幕 亚洲精品 第1页 | 亚洲欧洲中文日韩av乱码 | 日本一卡2卡3卡四卡精品网站 | 色欲久久久天天天综合网精品 | 亚洲 日韩 欧美 成人 在线观看 | 欧美成人午夜精品久久久 | 精品一区二区三区波多野结衣 | 国产精品国产自线拍免费软件 | 无码精品人妻一区二区三区av | 亚洲色无码一区二区三区 | 四虎国产精品免费久久 | 欧美一区二区三区视频在线观看 | 丁香啪啪综合成人亚洲 | 亚洲日韩av一区二区三区中文 | 国产极品美女高潮无套在线观看 | 无码乱肉视频免费大全合集 | 国产香蕉尹人视频在线 | 国产精品va在线观看无码 | 免费无码肉片在线观看 | 无码一区二区三区在线观看 | 久久久婷婷五月亚洲97号色 | 精品国精品国产自在久国产87 | 全黄性性激高免费视频 | 国产麻豆精品精东影业av网站 | 福利一区二区三区视频在线观看 | 国产女主播喷水视频在线观看 | 国产 精品 自在自线 | 亚洲欧美精品伊人久久 | 夫妻免费无码v看片 | а√资源新版在线天堂 | 狂野欧美激情性xxxx | 俺去俺来也在线www色官网 | 日韩精品乱码av一区二区 | 性色欲网站人妻丰满中文久久不卡 | ass日本丰满熟妇pics | 国产精品人人妻人人爽 | 97精品人妻一区二区三区香蕉 | 自拍偷自拍亚洲精品10p | 香港三级日本三级妇三级 | 99久久99久久免费精品蜜桃 | 欧美日韩视频无码一区二区三 | 国产成人无码一二三区视频 | 亚洲精品一区二区三区在线观看 | 久久综合九色综合97网 | 欧美精品一区二区精品久久 | 久久久中文字幕日本无吗 | 无码精品国产va在线观看dvd | 国产sm调教视频在线观看 | 图片区 小说区 区 亚洲五月 | 久精品国产欧美亚洲色aⅴ大片 | 日韩亚洲欧美中文高清在线 | 午夜无码区在线观看 | 国产乱人伦偷精品视频 | 特黄特色大片免费播放器图片 | www一区二区www免费 | 丰满少妇人妻久久久久久 | 成人欧美一区二区三区 | 亚洲综合久久一区二区 | 国产精品久久久久久久影院 | 国产成人综合在线女婷五月99播放 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲狠狠婷婷综合久久 | 精品久久综合1区2区3区激情 | 99精品国产综合久久久久五月天 | 亚洲狠狠婷婷综合久久 | 又湿又紧又大又爽a视频国产 | 中文字幕乱码中文乱码51精品 | 国产综合久久久久鬼色 | 一个人看的www免费视频在线观看 | 久久www免费人成人片 | 亚洲精品久久久久久一区二区 | 久久成人a毛片免费观看网站 | 激情国产av做激情国产爱 | 综合人妻久久一区二区精品 | 精品无码一区二区三区的天堂 | 成人免费视频一区二区 | 久久天天躁狠狠躁夜夜免费观看 | 在线精品亚洲一区二区 | 影音先锋中文字幕无码 | 在线亚洲高清揄拍自拍一品区 | 精品无人国产偷自产在线 | 妺妺窝人体色www婷婷 | 少妇邻居内射在线 | 露脸叫床粗话东北少妇 | 美女黄网站人色视频免费国产 | 人妻夜夜爽天天爽三区 | 中国大陆精品视频xxxx | 国内精品一区二区三区不卡 | 99久久精品日本一区二区免费 | 2019nv天堂香蕉在线观看 | 性欧美大战久久久久久久 | 蜜臀aⅴ国产精品久久久国产老师 | 成人av无码一区二区三区 | 亚洲综合伊人久久大杳蕉 | 日韩av激情在线观看 | 亚洲精品综合一区二区三区在线 | 中文字幕无码免费久久9一区9 | 精品厕所偷拍各类美女tp嘘嘘 | 麻豆蜜桃av蜜臀av色欲av | 精品厕所偷拍各类美女tp嘘嘘 | 精品人妻人人做人人爽夜夜爽 | 久久久久99精品国产片 | 欧美freesex黑人又粗又大 | 牲交欧美兽交欧美 | 成人无码精品1区2区3区免费看 | 亚洲精品成a人在线观看 | 国产熟女一区二区三区四区五区 | 久久精品中文闷骚内射 | 青青草原综合久久大伊人精品 | 久久这里只有精品视频9 | 亚洲人成影院在线无码按摩店 | 欧美兽交xxxx×视频 | 三上悠亚人妻中文字幕在线 | 国产午夜福利100集发布 | 少妇无套内谢久久久久 | 强伦人妻一区二区三区视频18 | 99久久精品国产一区二区蜜芽 | 精品国偷自产在线视频 | 精品偷自拍另类在线观看 | 国产精品igao视频网 | 国产精品亚洲一区二区三区喷水 | 野狼第一精品社区 | 精品国产一区二区三区av 性色 | 国产亚洲精品久久久久久 | 荫蒂被男人添的好舒服爽免费视频 | 男女爱爱好爽视频免费看 | 国产亚洲tv在线观看 | 午夜福利一区二区三区在线观看 | 日韩欧美群交p片內射中文 | 国产亚洲人成a在线v网站 | 精品国产成人一区二区三区 | 狂野欧美性猛xxxx乱大交 | 中文字幕精品av一区二区五区 | 在线播放无码字幕亚洲 | 呦交小u女精品视频 | 欧美亚洲国产一区二区三区 | a在线观看免费网站大全 | 天堂亚洲免费视频 | 日日摸日日碰夜夜爽av | 久久久久人妻一区精品色欧美 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲午夜无码久久 | 十八禁真人啪啪免费网站 | 天堂а√在线中文在线 | 久久国产自偷自偷免费一区调 | 国产免费观看黄av片 | 亚洲精品久久久久久一区二区 | 色综合久久久久综合一本到桃花网 | 亚洲 另类 在线 欧美 制服 | 亚洲精品综合五月久久小说 | 99久久婷婷国产综合精品青草免费 | 老子影院午夜精品无码 | 久久精品99久久香蕉国产色戒 | 日产精品99久久久久久 | 国产精品资源一区二区 | 少妇无码一区二区二三区 | 国产精品多人p群无码 | 中文字幕人成乱码熟女app | 欧洲精品码一区二区三区免费看 | 日本大乳高潮视频在线观看 | 97久久精品无码一区二区 | 黑人大群体交免费视频 | 55夜色66夜色国产精品视频 | 久久久亚洲欧洲日产国码αv | 日本熟妇乱子伦xxxx | 99精品国产综合久久久久五月天 | 色婷婷香蕉在线一区二区 | 内射后入在线观看一区 | 欧美亚洲国产一区二区三区 | 国产精品久久久久久久9999 | 在线观看国产午夜福利片 | 亚洲日本va中文字幕 | 国产无遮挡又黄又爽免费视频 | 国产偷国产偷精品高清尤物 | а天堂中文在线官网 | 亚洲人成影院在线无码按摩店 | 精品偷拍一区二区三区在线看 | 欧美老人巨大xxxx做受 | 成人无码精品1区2区3区免费看 | 久久久久久久久蜜桃 | 国精产品一区二区三区 | 久久成人a毛片免费观看网站 | 老司机亚洲精品影院无码 | 成人亚洲精品久久久久软件 | 波多野结衣av一区二区全免费观看 | 国产精品久久精品三级 | 国产精品人人妻人人爽 | 欧美老妇交乱视频在线观看 | 欧美日本日韩 | 国产偷抇久久精品a片69 | 久9re热视频这里只有精品 | 久久综合久久自在自线精品自 | 国产乱码精品一品二品 | 亚洲午夜久久久影院 | 高清不卡一区二区三区 | 99久久精品午夜一区二区 | av无码久久久久不卡免费网站 | 亚洲欧美中文字幕5发布 | 扒开双腿吃奶呻吟做受视频 | 亚洲天堂2017无码 | 成人亚洲精品久久久久 | 久久精品女人的天堂av | 无码午夜成人1000部免费视频 | 国产欧美熟妇另类久久久 | 久久久久久久人妻无码中文字幕爆 | 欧美黑人巨大xxxxx | 亚洲区小说区激情区图片区 | 中文字幕日韩精品一区二区三区 | 大胆欧美熟妇xx | 大肉大捧一进一出视频出来呀 | 国産精品久久久久久久 | 久久久久国色av免费观看性色 | 亚洲欧美精品aaaaaa片 | 精品人妻人人做人人爽 | 人妻互换免费中文字幕 | 少妇太爽了在线观看 | 国产在线无码精品电影网 | 免费网站看v片在线18禁无码 | 国产综合久久久久鬼色 | 熟妇女人妻丰满少妇中文字幕 | 久久久久99精品国产片 | 1000部啪啪未满十八勿入下载 | 中国女人内谢69xxxxxa片 |