3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

Spark SQL玩起来

發布時間:2025/4/5 数据库 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark SQL玩起来 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

標簽(空格分隔): Spark


[toc]

前言

Spark SQL的介紹只包含官方文檔的Getting Started、DataSource、Performance Tuning和Distributed SQL Engine部分。不含其他的遷移和PySpark等部分。

Spark SQL介紹

Spark SQL是一個Spark模塊用于結構化數據處理。與基本的Spark RDD API不同,Spark SQL提供的接口為Spark提供了有關數據結構和正在執行的計算的更多信息。 在內部,Spark SQL使用此額外信息來執行額外的優化。 有幾種與Spark SQL交互的方法,包括SQL和Dataset API。 在使用相同的執行引擎計算結果時,與使用表達計算的API或者語言無關。 這種統一意味著開發人員可以輕松地在不同的API之間來回切換,從而提供表達給定轉換的最自然的方式。

SQL

Spark SQL的一個用途是執行SQL查詢。Spark SQL還可用于從現有Hive中讀取數據。 有關如何配置此功能的更多信息,請參閱Hive Tables部分。 從其他編程語言中運行SQL時,結果將作為Dataset/DataFrame返回。 還可以使用命令行或JDBC/ODBC與SQL接口進行交互。

Dataset和DataFrame

Dataset數據集是分布式數據集合。數據集是Spark 1.6中添加的一個新接口,它提供了RDD的優勢(強類型,使用強大的lambda函數的能力)和Spark SQL優化執行引擎的優點。 數據集可以從JVM對象構造,然后使用功能轉換(map,flatMap,filter等)進行操作。 數據集API在Scala和Java中可用。 Python沒有對Dataset API的支持。 但由于Python的動態特性,數據集API的許多好處已經可用(即可以通過名稱自然地訪問行的字段row.columnName)。 R的情況類似。

DataFrame是一個組織成命名列的數據集。 它在概念上等同于關系數據庫中的表或R / Python中的數據框,但在底層具有更豐富的優化。 DataFrame可以從多種來源構建,例如:結構化數據文件,Hive中的表,外部數據庫或現有RDD。 DataFrame API在Scala,Java,Python和R中可用。在Scala和Java中,DataFrame由行數據集表示。 在Scala API中,DataFrame只是Dataset[Row]的類型別名。 而在Java API中,用戶需要使用Dataset<Row>來表示DataFrame。

Spark SQL入門知識

SparkSession

Spark中所有功能的入口點是SparkSession類。通過類似下面的代碼來創建:

import org.apache.spark.sql.SparkSessionval spark = SparkSession.builder().appName("Spark SQL basic example").config("spark.some.config.option", "some-value").getOrCreate()// For implicit conversions like converting RDDs to DataFrames import spark.implicits._

Spark 2.0中的SparkSession為Hive功能提供內置支持,包括使用HiveQL編寫查詢,訪問Hive UDF以及從Hive表讀取數據的功能。 要使用這些功能,并不需擁有現有的Hive設置。

創建DataFrame

使用SparkSession,應用程序可以從現有RDD,Hive表或Spark數據源創建DataFrame。作為示例,以下內容基于JSON文件的內容創建DataFrame:

val df = spark.read.json("examples/src/main/resources/people.json")// Displays the content of the DataFrame to stdout df.show() // +----+-------+ // | age| name| // +----+-------+ // |null|Michael| // | 30| Andy| // | 19| Justin| // +----+-------+

無類型數據集操作(又名DataFrame操作)

DataFrames為Scala,Java,Python和R中的結構化數據操作提供一種DSL的語言。如上所述,在Spark 2.0中,DataFrames只是Scala和Java API中的行數據集。與“類型轉換”相比,這些操作也稱為“無類型轉換”,帶有強類型Scala / Java數據集。這里展示使用數據集進行結構化數據處理的一些基本示例:

// This import is needed to use the $-notation import spark.implicits._ // Print the schema in a tree format df.printSchema() // root // |-- age: long (nullable = true) // |-- name: string (nullable = true)// Select only the "name" column df.select("name").show() // +-------+ // | name| // +-------+ // |Michael| // | Andy| // | Justin| // +-------+// Select everybody, but increment the age by 1 df.select($"name", $"age" + 1).show() // +-------+---------+ // | name|(age + 1)| // +-------+---------+ // |Michael| null| // | Andy| 31| // | Justin| 20| // +-------+---------+// Select people older than 21 df.filter($"age" > 21).show() // +---+----+ // |age|name| // +---+----+ // | 30|Andy| // +---+----+// Count people by age df.groupBy("age").count().show() // +----+-----+ // | age|count| // +----+-----+ // | 19| 1| // |null| 1| // | 30| 1| // +----+-----+

以編程方式運行SQL查詢

SparkSession上的sql函數使應用程序能夠以編程方式運行SQL查詢并將結果作為DataFrame返回。

// Register the DataFrame as a SQL temporary view df.createOrReplaceTempView("people")val sqlDF = spark.sql("SELECT * FROM people") sqlDF.show() // +----+-------+ // | age| name| // +----+-------+ // |null|Michael| // | 30| Andy| // | 19| Justin| // +----+-------+

全局臨時視圖

Spark SQL中的臨時視圖是會話范圍的,如果創建它的會話終止,它將消失。 如果希望擁有一個在所有會話之間共享的臨時視圖并保持活動狀態,直到Spark應用程序終止,您可以創建一個全局臨時視圖。 全局臨時視圖與系統保留的數據庫global_temp綁定,我們必須使用限定名稱來引用它,例如 SELECT * FROM global_temp.view1。

// Register the DataFrame as a global temporary view df.createGlobalTempView("people")// Global temporary view is tied to a system preserved database `global_temp` spark.sql("SELECT * FROM global_temp.people").show() // +----+-------+ // | age| name| // +----+-------+ // |null|Michael| // | 30| Andy| // | 19| Justin| // +----+-------+// Global temporary view is cross-session spark.newSession().sql("SELECT * FROM global_temp.people").show() // +----+-------+ // | age| name| // +----+-------+ // |null|Michael| // | 30| Andy| // | 19| Justin| // +----+-------+

創建數據集

數據集與RDD類似,但是,它們不使用Java序列化或Kryo,而是使用專用的編碼器來序列化對象以便通過網絡進行處理或傳輸。 雖然編碼器和標準序列化都負責將對象轉換為字節,但編碼器是動態生成的代碼,并使用一種格式,允許Spark執行許多操作,如過濾,排序和散列,而無需將字節反序列化為對象。

case class Person(name: String, age: Long)// Encoders are created for case classes val caseClassDS = Seq(Person("Andy", 32)).toDS() caseClassDS.show() // +----+---+ // |name|age| // +----+---+ // |Andy| 32| // +----+---+// Encoders for most common types are automatically provided by importing spark.implicits._ val primitiveDS = Seq(1, 2, 3).toDS() primitiveDS.map(_ + 1).collect() // Returns: Array(2, 3, 4)// DataFrames can be converted to a Dataset by providing a class. Mapping will be done by name val path = "examples/src/main/resources/people.json" val peopleDS = spark.read.json(path).as[Person] peopleDS.show() // +----+-------+ // | age| name| // +----+-------+ // |null|Michael| // | 30| Andy| // | 19| Justin| // +----+-------+

與RDD交互操作

Spark SQL支持兩種不同的方法將現有RDD轉換為數據集。 第一種方法使用反射來推斷包含特定類型對象的RDD的schema。 這種基于反射的方法可以提供更簡潔的代碼,并且在您編寫Spark應用程序時已經了解schema時可以很好地工作。

創建數據集的第二種方法是通過編程接口,這種方法允許你構建模式,然后將其應用于現有RDD。 雖然此方法更繁瑣一些,但它允許在直到運行時才知道列及其類型時構造數據集。

利用反射推斷的方法

Spark SQL的Scala接口支持自動將包含RDD的case class轉換為DataFrame。 case class用來定義表的模式。 case類的參數名稱是通過反射讀取的,這些名稱會成為列的名稱。 case類也可以被嵌套或包含復雜類型,如Seqs或Arrays。 此RDD可以隱式轉換為DataFrame,然后注冊為表。而這個表可以在后續SQL語句中使用。

// For implicit conversions from RDDs to DataFrames import spark.implicits._// Create an RDD of Person objects from a text file, convert it to a Dataframe val peopleDF = spark.sparkContext.textFile("examples/src/main/resources/people.txt").map(_.split(",")).map(attributes => Person(attributes(0), attributes(1).trim.toInt)).toDF() // Register the DataFrame as a temporary view peopleDF.createOrReplaceTempView("people")// SQL statements can be run by using the sql methods provided by Spark val teenagersDF = spark.sql("SELECT name, age FROM people WHERE age BETWEEN 13 AND 19")// The columns of a row in the result can be accessed by field index teenagersDF.map(teenager => "Name: " + teenager(0)).show() // +------------+ // | value| // +------------+ // |Name: Justin| // +------------+// or by field name teenagersDF.map(teenager => "Name: " + teenager.getAs[String]("name")).show() // +------------+ // | value| // +------------+ // |Name: Justin| // +------------+// No pre-defined encoders for Dataset[Map[K,V]], define explicitly implicit val mapEncoder = org.apache.spark.sql.Encoders.kryo[Map[String, Any]] // Primitive types and case classes can be also defined as // implicit val stringIntMapEncoder: Encoder[Map[String, Any]] = ExpressionEncoder()// row.getValuesMap[T] retrieves multiple columns at once into a Map[String, T] teenagersDF.map(teenager => teenager.getValuesMap[Any](List("name", "age"))).collect() // Array(Map("name" -> "Justin", "age" -> 19))

利用編程接口聲明schema的方法

如果無法提前定義case類(例如,記錄的結構以字符串形式編碼,或者文本數據集將被解析,字段將針對不同的用戶進行不同的映射),則可以通過三個步驟以編程方式創建DataFrame。

  • 從原始RDD創建行RDD;
  • 創建由與步驟1中創建的RDD中的行結構匹配的StructType表示的schema。
  • 通過SparkSession提供的createDataFrame方法將schema應用于行RDD。
  • import org.apache.spark.sql.types._// Create an RDD val peopleRDD = spark.sparkContext.textFile("examples/src/main/resources/people.txt")// The schema is encoded in a string val schemaString = "name age"// Generate the schema based on the string of schema val fields = schemaString.split(" ").map(fieldName => StructField(fieldName, StringType, nullable = true)) val schema = StructType(fields)// Convert records of the RDD (people) to Rows val rowRDD = peopleRDD.map(_.split(",")).map(attributes => Row(attributes(0), attributes(1).trim))// Apply the schema to the RDD val peopleDF = spark.createDataFrame(rowRDD, schema)// Creates a temporary view using the DataFrame peopleDF.createOrReplaceTempView("people")// SQL can be run over a temporary view created using DataFrames val results = spark.sql("SELECT name FROM people")// The results of SQL queries are DataFrames and support all the normal RDD operations // The columns of a row in the result can be accessed by field index or by field name results.map(attributes => "Name: " + attributes(0)).show() // +-------------+ // | value| // +-------------+ // |Name: Michael| // | Name: Andy| // | Name: Justin| // +-------------+

    聚合

    內置的DataFrames函數提供常見的聚合,如count(),countDistinct(),avg(),max(),min()等。雖然這些函數是為DataFrames設計的,但Spark SQL也有類型安全的版本 其中一些在Scala和Java中使用強類型數據集。 此外,用戶不限于使用預定義的聚合函數,也可以創建自己的聚合函數。

    無類型的UDAF

    用戶必須擴展UserDefinedAggregateFunction抽象類以實現自定義無類型聚合函數。 例如,用戶定義的平均值可能如下所示:

    import org.apache.spark.sql.{Row, SparkSession} import org.apache.spark.sql.expressions.MutableAggregationBuffer import org.apache.spark.sql.expressions.UserDefinedAggregateFunction import org.apache.spark.sql.types._object MyAverage extends UserDefinedAggregateFunction {// Data types of input arguments of this aggregate functiondef inputSchema: StructType = StructType(StructField("inputColumn", LongType) :: Nil)// Data types of values in the aggregation bufferdef bufferSchema: StructType = {StructType(StructField("sum", LongType) :: StructField("count", LongType) :: Nil)}// The data type of the returned valuedef dataType: DataType = DoubleType// Whether this function always returns the same output on the identical inputdef deterministic: Boolean = true// Initializes the given aggregation buffer. The buffer itself is a `Row` that in addition to// standard methods like retrieving a value at an index (e.g., get(), getBoolean()), provides// the opportunity to update its values. Note that arrays and maps inside the buffer are still// immutable.def initialize(buffer: MutableAggregationBuffer): Unit = {buffer(0) = 0Lbuffer(1) = 0L}// Updates the given aggregation buffer `buffer` with new input data from `input`def update(buffer: MutableAggregationBuffer, input: Row): Unit = {if (!input.isNullAt(0)) {buffer(0) = buffer.getLong(0) + input.getLong(0)buffer(1) = buffer.getLong(1) + 1}}// Merges two aggregation buffers and stores the updated buffer values back to `buffer1`def merge(buffer1: MutableAggregationBuffer, buffer2: Row): Unit = {buffer1(0) = buffer1.getLong(0) + buffer2.getLong(0)buffer1(1) = buffer1.getLong(1) + buffer2.getLong(1)}// Calculates the final resultdef evaluate(buffer: Row): Double = buffer.getLong(0).toDouble / buffer.getLong(1) }// Register the function to access it spark.udf.register("myAverage", MyAverage)val df = spark.read.json("examples/src/main/resources/employees.json") df.createOrReplaceTempView("employees") df.show() // +-------+------+ // | name|salary| // +-------+------+ // |Michael| 3000| // | Andy| 4500| // | Justin| 3500| // | Berta| 4000| // +-------+------+val result = spark.sql("SELECT myAverage(salary) as average_salary FROM employees") result.show() // +--------------+ // |average_salary| // +--------------+ // | 3750.0| // +--------------+

    類型安全的用戶定義聚合函數

    強類型數據集的用戶定義聚合通過Aggregator抽象類來實現。 例如,類型安全的用戶定義平均值可能如下所示:

    import org.apache.spark.sql.{Encoder, Encoders, SparkSession} import org.apache.spark.sql.expressions.Aggregatorcase class Employee(name: String, salary: Long) case class Average(var sum: Long, var count: Long)object MyAverage extends Aggregator[Employee, Average, Double] {// A zero value for this aggregation. Should satisfy the property that any b + zero = bdef zero: Average = Average(0L, 0L)// Combine two values to produce a new value. For performance, the function may modify `buffer`// and return it instead of constructing a new objectdef reduce(buffer: Average, employee: Employee): Average = {buffer.sum += employee.salarybuffer.count += 1buffer}// Merge two intermediate valuesdef merge(b1: Average, b2: Average): Average = {b1.sum += b2.sumb1.count += b2.countb1}// Transform the output of the reductiondef finish(reduction: Average): Double = reduction.sum.toDouble / reduction.count// Specifies the Encoder for the intermediate value typedef bufferEncoder: Encoder[Average] = Encoders.product// Specifies the Encoder for the final output value typedef outputEncoder: Encoder[Double] = Encoders.scalaDouble }val ds = spark.read.json("examples/src/main/resources/employees.json").as[Employee] ds.show() // +-------+------+ // | name|salary| // +-------+------+ // |Michael| 3000| // | Andy| 4500| // | Justin| 3500| // | Berta| 4000| // +-------+------+// Convert the function to a `TypedColumn` and give it a name val averageSalary = MyAverage.toColumn.name("average_salary") val result = ds.select(averageSalary) result.show() // +--------------+ // |average_salary| // +--------------+ // | 3750.0| // +--------------+

    數據源

    Spark SQL支持通過DataFrame接口對各種數據源進行操作。 DataFrame可以使用關系型轉換操作進行操作,也可以用于創建臨時視圖。 將DataFrame注冊為臨時視圖允許您對其數據運行SQL查詢。 下面的部分會介紹使用Spark數據源加載和保存數據的一般方法,然后介紹可用于內置數據源的特定配置選項。

    通用加載/保存功能

    在最簡單的形式中,默認數據源(parquet文件,除非另外由spark.sql.sources.default配置指定)將用于所有操作。

    val usersDF = spark.read.load("examples/src/main/resources/users.parquet") usersDF.select("name", "favorite_color").write.save("namesAndFavColors.parquet")

    手動指定選項

    你還可以手動指定將要使用的數據源以及要傳遞給數據源的任何其他選項。 數據源由其完全限定名稱(即org.apache.spark.sql.parquet)指定,但對于內置源,你還可以使用其短名稱(json,parquet,jdbc,orc,libsvm,csv,text)。 從任何數據源類型加載的DataFrame都可以使用此語法轉換為其他類型。
    加載一個json文件可以用如下方法:

    val peopleDF = spark.read.format("json").load("examples/src/main/resources/people.json") peopleDF.select("name", "age").write.format("parquet").save("namesAndAges.parquet")

    而加載一個csv可以這樣:

    val peopleDFCsv = spark.read.format("csv").option("sep", ";").option("inferSchema", "true").option("header", "true").load("examples/src/main/resources/people.csv")

    在寫操作期間也使用額外選項。 例如,您可以控制ORC數據源的bloom過濾器和字典編碼。 以下ORC示例將在favorite_color上創建bloom過濾器,并對name和favorite_color使用字典編碼。 對于Parquet,也存在parquet.enable.dictionary。 要查找有關額外ORC / Parquet選項的更多詳細信息,請訪問官方Apache ORC / Parquet網站。

    usersDF.write.format("orc").option("orc.bloom.filter.columns", "favorite_color").option("orc.dictionary.key.threshold", "1.0").save("users_with_options.orc")

    直接在文件上運行SQL

    您可以直接使用SQL查詢該文件,而不是使用讀取API將文件加載到DataFrame并進行查詢。

    val sqlDF = spark.sql("SELECT * FROM parquet.`examples/src/main/resources/users.parquet`")

    保存模式

    保存操作可以有選擇地使用SaveMode,不同選項模式指定如何處理現有數據(如果存在)。 重要的是要意識到這些保存模式不使用任何鎖定并且不是原子的。 此外,執行覆蓋時,將在寫出新數據之前刪除數據。

    Scala/JavaAny LanguageMeaning
    SaveMode.ErrorIfExists (default) "error" or "errorifexists" (default) 將DataFrame保存到數據源時,如果數據已存在,則會引發異常。
    SaveMode.Append"append" 將DataFrame保存到數據源時,如果數據/表已存在,則DataFrame的內容應附加到現有數據。
    SaveMode.Overwrite"overwrite" 覆蓋模式意味著在將DataFrame保存到數據源時,如果數據/表已經存在,則預期現有數據將被DataFrame的內容覆蓋。
    SaveMode.Ignore"ignore" 忽略模式意味著在將DataFrame保存到數據源時,如果數據已存在,則預期保存操作不會保存DataFrame的內容而不會更改現有數據。 這類似于SQL中的CREATE TABLE IF NOT EXISTS。

    保存到持久表

    也可以使用saveAsTable命令將DataFrames作為持久表保存到Hive Metastore中。請注意,使用此功能不需要現有的Hive部署。 Spark將為您創建默認的本地Hive Metastore(使用Derby)。 與createOrReplaceTempView命令不同,saveAsTable將實現DataFrame的內容并創建指向Hive Metastore中數據的指針。 只要您保持與同一Metastore的連接,即使您的Spark程序重新啟動后,持久表仍然存在。 可以通過使用表的名稱調用SparkSession上的table方法來創建持久表的DataFrame。
    對于基于文件的數據源,例如 text,parquet,json等,你可以通過路徑選項指定自定義表路徑,例如 df.write.option(“path”,“/ some / path”).saveAsTable(“t”)。 刪除表時,將不會刪除自定義表路徑,并且表數據仍然存在。 如果未指定自定義表路徑,則Spark會將數據寫入倉庫目錄下的默認表路徑。 刪除表時,也將刪除默認表路徑。

    從Spark 2.1開始,持久數據源表將每個分區元數據存儲在Hive Metastore中。 這帶來了幾個好處:

    • 由于Metastore只能返回查詢所需的分區,因此不再需要在表的第一個查詢中發現所有分區。
    • 現在,對于使用Datasource API創建的表,可以使用ALTER TABLE PARTITION ... SET LOCATION等Hive DDL。

    請注意,在創建外部數據源表(具有路徑選項的表)時,默認情況下不會收集分區信息。 要同步Metastore中的分區信息,可以調用MSCK REPAIR TABLE。

    分桶、排序和分區

    對于基于文件的數據源,也可以對輸出進行分桶和排序或分區。 分桶和排序僅適用于持久表:

    peopleDF.write.bucketBy(42, "name").sortBy("age").saveAsTable("people_bucketed")

    分區可以在使用數據集API時與save和saveAsTable一起使用。

    usersDF.write.partitionBy("favorite_color").format("parquet").save("namesPartByColor.parquet")

    可以對單個表同時使用分區和分桶:

    usersDF.write.partitionBy("favorite_color").bucketBy(42, "name").saveAsTable("users_partitioned_bucketed")

    partitionBy會創建一個目錄結構,如”分區發現“這一章所述。 因此,它對具有高基數的列的適用性有限。 相比之下,bucketBy可以在固定數量的桶中分配數據,并且可以在出現許多無界的唯一值時使用。

    Parquet文件

    Parquet是一種面向列的存儲格式,許多數據處理系統都支持它。Spark SQL支持讀取和寫入Parquet文件,這些文件自動保留原始數據的schema。 在寫Parquet文件時,出于兼容性原因,所有列都會自動轉換為可為空(nullable)模式。

    以編程方式加載數據

    使用如下的例子來實現:

    // Encoders for most common types are automatically provided by importing spark.implicits._ import spark.implicits._val peopleDF = spark.read.json("examples/src/main/resources/people.json")// DataFrames can be saved as Parquet files, maintaining the schema information peopleDF.write.parquet("people.parquet")// Read in the parquet file created above // Parquet files are self-describing so the schema is preserved // The result of loading a Parquet file is also a DataFrame val parquetFileDF = spark.read.parquet("people.parquet")// Parquet files can also be used to create a temporary view and then used in SQL statements parquetFileDF.createOrReplaceTempView("parquetFile") val namesDF = spark.sql("SELECT name FROM parquetFile WHERE age BETWEEN 13 AND 19") namesDF.map(attributes => "Name: " + attributes(0)).show() // +------------+ // | value| // +------------+ // |Name: Justin| // +------------+

    分區發現

    表分區是Hive等系統中常用的優化方法。 在分區表中,數據通常存儲在不同的目錄中,分區列值被編碼為每個分區目錄路徑。所有內置文件源(包括Text / CSV / JSON / ORC / Parquet)都能夠自動發現和推斷分區信息。 例如,我們可以使用以下目錄結構將所有以前使用的人口數據存儲到分區表中,并將兩個額外的列(性別和國家)作為分區列:

    path └── to└── table├── gender=male│ ├── ...│ ││ ├── country=US│ │ └── data.parquet│ ├── country=CN│ │ └── data.parquet│ └── ...└── gender=female├── ...│├── country=US│ └── data.parquet├── country=CN│ └── data.parquet└── ...

    通過將 path/to/table 傳遞給SparkSession.read.parquet或SparkSession.read.load,Spark SQL將自動從路徑中提取分區信息。 現在返回的DataFrame的schema變為:

    root |-- name: string (nullable = true) |-- age: long (nullable = true) |-- gender: string (nullable = true) |-- country: string (nullable = true)

    請注意,分區列的數據類型是自動推斷的。 目前,支持數字數據類型,日期,時間戳和字符串類型。 有時,用戶可能不希望自動推斷分區列的數據類型。 對于這些用例,可以通過spark.sql.sources.partitionColumnTypeInference.enabled配置自動類型推斷,默認為true。 禁用類型推斷時,字符串類型將用于分區列。
    從Spark 1.6.0開始,分區發現默認只查找給定路徑下的分區。 對于上面的示例,如果用戶將path/to/table/gender=male傳遞給SparkSession.read.parquet或SparkSession.read.load,則不會將性別視為分區列。 如果用戶需要指定分區發現應該從哪個基本路徑開始,則可以在數據源選項中設置basePath。 例如,當path/to/table/gender=male是數據的路徑并且用戶將basePath設置為path/to/table/時,gender將是分區列。

    模式合并Schema Merging

    與Protocol Buffer,Avro和Thrift一樣,Parquet也支持模式演變。 用戶可以從簡單模式開始,并根據需要逐漸向模式添加更多列。 通過這種方式,用戶可能最終得到具有不同但相互兼容的模式的多個Parquet文件。 Parquet數據源現在能夠自動檢測這種情況并合并所有這些文件的模式。
    由于模式合并是一項相對昂貴的操作,并且在大多數情況下不是必需的,因此我們默認從1.5.0開始關閉它。 您可以通過以下兩種方式啟用它:

  • 在讀取Parquet文件時將數據源選項mergeSchema設置為true(如下面的示例所示),或
  • 將全局SQL選項spark.sql.parquet.mergeSchema設置為true。
  • // This is used to implicitly convert an RDD to a DataFrame. import spark.implicits._// Create a simple DataFrame, store into a partition directory val squaresDF = spark.sparkContext.makeRDD(1 to 5).map(i => (i, i * i)).toDF("value", "square") squaresDF.write.parquet("data/test_table/key=1")// Create another DataFrame in a new partition directory, // adding a new column and dropping an existing column val cubesDF = spark.sparkContext.makeRDD(6 to 10).map(i => (i, i * i * i)).toDF("value", "cube") cubesDF.write.parquet("data/test_table/key=2")// Read the partitioned table val mergedDF = spark.read.option("mergeSchema", "true").parquet("data/test_table") mergedDF.printSchema()// The final schema consists of all 3 columns in the Parquet files together // with the partitioning column appeared in the partition directory paths // root // |-- value: int (nullable = true) // |-- square: int (nullable = true) // |-- cube: int (nullable = true) // |-- key: int (nullable = true)

    Hive Metastore Parquet表轉換

    在讀取和寫入Hive Metastore Parquet表時,Spark SQL將嘗試使用自己的Parquet支持而不是Hive SerDe來獲得更好的性能。 此行為由spark.sql.hive.convertMetastoreParquet配置控制,默認情況下處于打開狀態。

    Hive/Parquet Schema Reconciliation

    從表模式處理的角度來看,Hive和Parquet之間存在兩個主要區別。

  • Hive不區分大小寫,而Parquet則區分大小寫
  • Hive認為所有列都可以為空,而Parquet中的可空性設定很重要
  • 由于這個原因,在將Hive Metastore Parquet表轉換為Spark SQL Parquet表時,我們必須將Hive Metastore模式與Parquet模式進行協調。 相應的規則是:

  • 兩個模式中具有相同名稱的字段必須具有相同的數據類型,而不管可空性如何。 協調字段應具有Parquet端的數據類型,以便遵循可為空性。
  • 協調的模式要精準的包含Hive Metastore模式中定義的那些字段。
    • 僅出現在Parquet模式中的任何字段都將在協調的模式中被放棄。
    • 僅出現在Hive Metastore模式中的任何字段都將在協調模式中添加為可空字段。
    元數據刷新Metadata Refreshing

    Spark SQL緩存Parquet元數據以獲得更好的性能。 啟用Hive Metastore Parquet表轉換后,還會緩存這些轉換表的元數據。 如果這些表由Hive或其他外部工具更新,則需要手動刷新它們以確保元數據一致。

    // spark is an existing SparkSession spark.catalog.refreshTable("my_table")

    配置

    可以使用SparkSession上的setConf方法或使用SQL運行SET key = value命令來完成Parquet的配置。

    Property NameDefaultMeaning
    spark.sql.parquet.binaryAsStringfalse 其他一些Parquet生產系統,特別是Impala,Hive和舊版本的Spark SQL在寫出Parquet模式時,不要區分二進制數據和字符串。 這個flag告訴Spark SQL將二進制數據解釋為字符串,以提供與這些系統的兼容性。
    spark.sql.parquet.int96AsTimestamptrue 一些Parquet生產系統,特別是Impala和Hive,將時間戳存儲到INT96中。 這個flag告訴Spark SQL將INT96數據解釋為時間戳,以提供與這些系統的兼容性。
    spark.sql.parquet.compression.codecsnappy 設置編寫Parquet文件時使用的壓縮編解碼器。 如果是compression或parquet.compression在聲明表的選項/屬性中指定聲明,優先級為compression,parquet.compression,spark.sql.parquet.compression.codec。 可接受的值包括:none,uncompressed,snappy,gzip,lzo,brotli,lz4,zstd。注意zstd需要在Hadoop 2.9.0之前安裝ZStandardCodec,brotli需要要安裝BrotliCodec。
    spark.sql.parquet.filterPushdowntrue設置為true時啟用Parquet過濾器下推優化。
    spark.sql.hive.convertMetastoreParquettrue 設置為false時,Spark SQL將使用Hive SerDe作為Parquet而不是內置支持。
    spark.sql.parquet.mergeSchemafalse

    如果為true,則Parquet數據源合并從所有數據文件收集的模式,否則從摘要文件選取模式,如果沒有可用的摘要文件,則從隨機數據文件中選取模式。

    spark.sql.optimizer.metadataOnlytrue

    如果為true,則利用表的元數據來做僅元數據查詢優化生成分區列而不是表掃描。 它適用于掃描的所有列都是分區列,并且查詢具有滿足distinct語義的聚合運算符的情況。

    spark.sql.parquet.writeLegacyFormatfalse 如果為true,則數據將以Spark 1.4及更早版本的方式寫入。 例如,十進制值將以Apache Parquet的固定長度字節數組格式編寫,供其他系統如Apache Hive和Apache Impala使用。如果為false,將使用Parquet中的較新格式。例如,十進制數將以基于int的格式編寫。如果打算使用Parquet輸出的對應系統不支持此新格式,請設置為true。

    ORC Files

    從Spark 2.3開始,Spark使用新ORC文件格式的向量化的ORC reader來支持ORC文件。為此,新添加了以下配置。 當spark.sql.orc.impl設置為native并且spark.sql.orc.enableVectorizedReader設置為true時,向量化reader用于原生ORC表(例如,使用USING ORC子句創建的表)。對于Hive ORC serde表(例如,使用USING HIVE OPTIONS(fileFormat'ORC')子句創建的表),當spark.sql.hive.convertMetastoreOrc也設置為true時,使用向量化reader。

    Property NameDefaultMeaning
    spark.sql.orc.implnative ORC實現的名稱。 它可以是 native 和 hive 之一。 native 表示在Apache ORC 1.4上構建的原生ORC支持。 hive表示Hive 1.2.1中的ORC庫。
    spark.sql.orc.enableVectorizedReadertrue 在 native 實現中啟用矢量化orc解碼。如果 false ,則在 native 實現中使用新的非向量化ORC reader。 對于 hive 實現,這將被忽略。

    JSON Files

    Spark SQL可以自動推斷JSON數據集的模式,并將其作為Dataset[Row]加載。 可以使用Dataset[String]或JSON文件上的SparkSession.read.json()完成此轉換。

    請注意,作為json文件提供的文件不是典型的JSON文件。 每行必須包含一個單獨的,自包含的有效JSON對象。 有關更多信息,請參閱JSON Lines文本格式,也稱為換行符分隔的JSON。
    For a regular multi-line JSON file, set the multiLine option to true.
    對于一個常規的多行JSON文件,設置multiLine選項為true。

    // Primitive types (Int, String, etc) and Product types (case classes) encoders are // supported by importing this when creating a Dataset. import spark.implicits._// A JSON dataset is pointed to by path. // The path can be either a single text file or a directory storing text files val path = "examples/src/main/resources/people.json" val peopleDF = spark.read.json(path)// The inferred schema can be visualized using the printSchema() method peopleDF.printSchema() // root // |-- age: long (nullable = true) // |-- name: string (nullable = true)// Creates a temporary view using the DataFrame peopleDF.createOrReplaceTempView("people")// SQL statements can be run by using the sql methods provided by spark val teenagerNamesDF = spark.sql("SELECT name FROM people WHERE age BETWEEN 13 AND 19") teenagerNamesDF.show() // +------+ // | name| // +------+ // |Justin| // +------+// Alternatively, a DataFrame can be created for a JSON dataset represented by // a Dataset[String] storing one JSON object per string val otherPeopleDataset = spark.createDataset("""{"name":"Yin","address":{"city":"Columbus","state":"Ohio"}}""" :: Nil) val otherPeople = spark.read.json(otherPeopleDataset) otherPeople.show() // +---------------+----+ // | address|name| // +---------------+----+ // |[Columbus,Ohio]| Yin| // +---------------+----+

    Hive表Hive Tables

    Spark SQL還支持讀取和寫入存儲在Apache Hive中的數據。 但是,由于Hive具有大量依賴項,而這些依賴項不包含在默認的Spark分發版本中。如果可以在類路徑上找到Hive依賴項,Spark將自動加載它們。 請注意,這些Hive依賴項也必須存在于所有工作節點上,因為它們需要訪問Hive序列化和反序列化庫(SerDes)才能訪問存儲在Hive中的數據。
    通過在conf/中放置hive-site.xml,core-site.xml(用于安全性配置)和hdfs-site.xml(用于HDFS配置)文件來完成Hive的配置。
    使用Hive時,必須使用Hive支持來實例化SparkSession,包括連接到持久化的Hive Metastore,支持Hive serdes和Hive用戶定義函數。 沒有現有Hive部署的用戶仍可以啟用Hive支持。 當未由hive-site.xml配置時,上下文會自動在當前目錄中創建metastore_db,并創建一個由spark.sql.warehouse.dir配置的目錄,該目錄默認為當前目錄中的spark-warehouse目錄,Spark應用程序從此開始。 請注意,自Spark 2.0.0起,不推薦使用hive-site.xml中的hive.metastore.warehouse.dir屬性。 而是使用spark.sql.warehouse.dir指定倉庫中數據庫的默認位置。 您可能需要向啟動Spark應用程序的用戶授予寫入權限。

    import java.io.Fileimport org.apache.spark.sql.{Row, SaveMode, SparkSession}case class Record(key: Int, value: String)// warehouseLocation points to the default location for managed databases and tables val warehouseLocation = new File("spark-warehouse").getAbsolutePathval spark = SparkSession.builder().appName("Spark Hive Example").config("spark.sql.warehouse.dir", warehouseLocation).enableHiveSupport().getOrCreate()import spark.implicits._ import spark.sqlsql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING) USING hive") sql("LOAD DATA LOCAL INPATH 'examples/src/main/resources/kv1.txt' INTO TABLE src")// Queries are expressed in HiveQL sql("SELECT * FROM src").show() // +---+-------+ // |key| value| // +---+-------+ // |238|val_238| // | 86| val_86| // |311|val_311| // ...// Aggregation queries are also supported. sql("SELECT COUNT(*) FROM src").show() // +--------+ // |count(1)| // +--------+ // | 500 | // +--------+// The results of SQL queries are themselves DataFrames and support all normal functions. val sqlDF = sql("SELECT key, value FROM src WHERE key < 10 ORDER BY key")// The items in DataFrames are of type Row, which allows you to access each column by ordinal. val stringsDS = sqlDF.map {case Row(key: Int, value: String) => s"Key: $key, Value: $value" } stringsDS.show() // +--------------------+ // | value| // +--------------------+ // |Key: 0, Value: val_0| // |Key: 0, Value: val_0| // |Key: 0, Value: val_0| // ...// You can also use DataFrames to create temporary views within a SparkSession. val recordsDF = spark.createDataFrame((1 to 100).map(i => Record(i, s"val_$i"))) recordsDF.createOrReplaceTempView("records")// Queries can then join DataFrame data with data stored in Hive. sql("SELECT * FROM records r JOIN src s ON r.key = s.key").show() // +---+------+---+------+ // |key| value|key| value| // +---+------+---+------+ // | 2| val_2| 2| val_2| // | 4| val_4| 4| val_4| // | 5| val_5| 5| val_5| // ...// Create a Hive managed Parquet table, with HQL syntax instead of the Spark SQL native syntax // `USING hive` sql("CREATE TABLE hive_records(key int, value string) STORED AS PARQUET") // Save DataFrame to the Hive managed table val df = spark.table("src") df.write.mode(SaveMode.Overwrite).saveAsTable("hive_records") // After insertion, the Hive managed table has data now sql("SELECT * FROM hive_records").show() // +---+-------+ // |key| value| // +---+-------+ // |238|val_238| // | 86| val_86| // |311|val_311| // ...// Prepare a Parquet data directory val dataDir = "/tmp/parquet_data" spark.range(10).write.parquet(dataDir) // Create a Hive external Parquet table sql(s"CREATE EXTERNAL TABLE hive_ints(key int) STORED AS PARQUET LOCATION '$dataDir'") // The Hive external table should already have data sql("SELECT * FROM hive_ints").show() // +---+ // |key| // +---+ // | 0| // | 1| // | 2| // ...// Turn on flag for Hive Dynamic Partitioning spark.sqlContext.setConf("hive.exec.dynamic.partition", "true") spark.sqlContext.setConf("hive.exec.dynamic.partition.mode", "nonstrict") // Create a Hive partitioned table using DataFrame API df.write.partitionBy("key").format("hive").saveAsTable("hive_part_tbl") // Partitioned column `key` will be moved to the end of the schema. sql("SELECT * FROM hive_part_tbl").show() // +-------+---+ // | value|key| // +-------+---+ // |val_238|238| // | val_86| 86| // |val_311|311| // ...spark.stop()

    指定Hive表的存儲格式

    創建Hive表時,需要定義此表應如何從/向文件系統讀取/寫入數據,即“輸入格式”和“輸出格式”。 您還需要定義此表如何將數據反序列化為行,或將行序列化為數據,即“serde”。 以下選項可用于指定存儲格式(“serde”,“輸入格式”,“輸出格式”),例如, CREATE TABLE src(id int) USING hive OPTIONS(fileFormat 'parquet')。 默認情況下,我們將表文件作為純文本讀取。 請注意,創建表時尚不支持Hive存儲handler,您可以使用Hive端的存儲handler創建表,并使用Spark SQL讀取它。

    Property NameMeaning
    fileFormat fileFormat是一種存儲格式規范包,包括“serde”,“input format”和“output format”。 目前我們支持6種fileFormats:'sequencefile','rcfile','orc','parquet','textfile'和'avro'。
    inputFormat, outputFormat 這兩個選項將相應的InputFormat和OutputFormat類的名稱指定為字符串文字,例如org.apache.hadoop.hive.ql.io.orc.OrcInputFormat。 這兩個選項必須成對出現,如果已經指定了fileFormat選項,你不能請再指定它們。
    serde 此選項指定serde類的名稱。 指定fileFormat選項時,如果給定的fileFormat已經包含了serde的信息則請勿再指定此選項。 目前“sequencefile”,“textfile”和“rcfile”不包含serde信息,您可以將此選項與這3個fileFormats一起使用。
    fieldDelim, escapeDelim, collectionDelim, mapkeyDelim, lineDelim 這些選項只能與“textfile”文件格式一起使用。 它們定義了如何將文件內容分隔為行。

    與不同版本的Hive Metastore交互

    Spark SQL的Hive支持最重要的部分之一是與Hive Metastore的交互,這使得Spark SQL能夠訪問Hive表的元數據。從Spark 1.4.0開始,可以使用單個二進制構建的Spark SQL來查詢不同版本的Hive Metastores,使用下面描述的配置。 請注意,獨立于用于與Metastore通信的Hive版本,Spark SQL將針對Hive 1.2.1進行編譯作為內部實現,并使用這些類進行內部執行(serdes,UDF,UDAF等)。
    下面的選項用來配置Hive的版本,從而檢索元數據。

    Property NameDefaultMeaning
    spark.sql.hive.metastore.version1.2.1 Hive metastore的版本??蛇x的配置從0.12.0到 2.3.3。
    spark.sql.hive.metastore.jarsbuiltin 用來實例化HiveMetastoreClient的jar包的地址。可以是一下3個選項之一:
  • builtin 當使用
  • -Phive時,使用Hive 1.2.1,這是與Spark綁定的版本。當選擇該項時,spark.sql.hive.metastore.version必須是1.2.1或者無定義。 maven 使用從Maven倉庫中下載的指定的Hive jar包。該配置在生產環境不推薦。 JVM標準格式的類路徑。 此類路徑必須包含Hive及其所有依賴項,包括正確版本的Hadoop。 這些jar包只需要存在于驅動程序中,但如果您以yarn集群模式運行,則必須確保它們與您的應用程序一起打包。
    spark.sql.hive.metastore.sharedPrefixescom.mysql.jdbc,
    org.postgresql,
    com.microsoft.sqlserver,
    oracle.jdbc

    以逗號分隔的類前綴列表,應使用在Spark SQL和特定版本的Hive之間共享的類加載器加載。 舉個應該被共享的類的示例是與Metastore進行通信所需的JDBC驅動程序。 其他需要共享的類是與已共享的類交互的類。 例如,log4j使用的自定義appender。

    spark.sql.hive.metastore.barrierPrefixes(empty)

    以逗號分隔的類前綴列表,應為Spark SQL在與每個Hive版通信時需要顯式重新加載的類。 例如,在前綴中聲明的Hive的UDF就是典型的需要被共享的。(例如 org.apache.spark.* )

    JDBC To Other Databases

    Spark SQL還包括一個可以使用JDBC從其他數據庫讀取數據的數據源。 與使用JdbcRDD相比,此功能應該更受歡迎。 這是因為這樣操作的結果作為DataFrame返回,可以在Spark SQL中輕松處理,也可以與其他數據源連接。 JDBC數據源也更易于在Java或Python中使用,因為它不需要用戶提供ClassTag。 (請注意,這與Spark SQL JDBC服務器不同,后者允許其他應用程序使用Spark SQL運行查詢)。
    首先,您需要在spark類路徑中包含特定數據庫的JDBC驅動程序。 例如,要從Spark Shell連接到postgres,您將運行以下命令:

    bin/spark-shell --driver-class-path postgresql-9.4.1207.jar --jars postgresql-9.4.1207.jar

    可以使用Data Sources API將遠程數據庫中的表加載為DataFrame或Spark SQL臨時視圖。用戶可以在數據源選項中指定JDBC連接屬性。 用戶名和密碼通常作為登錄數據源的連接屬性提供。 除連接屬性外,Spark還支持以下不區分大小寫的選項:

    Property NameMeaning
    url JDBC連接串URL。特定源的連接屬性以URL的形式聲明。比如jdbc:postgresql://localhost/test?user=fred&password=secret
    dbtable 應該讀取或寫入的JDBC表。 請注意,在讀取路徑中使用它時,可以使用SQL查詢的 FROM 子句中有效的任何內容。 例如,您也可以在括號中使用子查詢,而不是完整的表。 不允許同時指定dbtable和query選項。
    query 將數據讀入Spark的查詢。指定的查詢將被括起來并用作 FROM 子句中的子查詢。 Spark還會為子查詢子句分配別名。 例如,spark將向JDBC Source發出以下形式的查詢。

    SELECT <columns> FROM (<user_specified_query>) spark_gen_alias

    使用此選項時,以下是一些限制。
  • 不允許同時指定dbtable和query選項。
  • 不允許同時指定query和partitionColumn選項。 當需要指定partitionColumn選項時,可以使用dbtable選項指定子查詢,并且可以使用作為dbtable一部分提供的子查詢別名來限定分區列。
    例如:
    spark.read.format("jdbc")
    ??.option("dbtable", "(select c1, c2 from t1) as subq")
    ??.option("partitionColumn", "subq.c1")
    ??.load()
  • driver JDBC驅動的類名。
    partitionColumn, lowerBound, upperBound 如果指定了任何選項,則必須全部指定這些選項。 此外,必須指定 numPartitions 。 它們描述了在從多個工作者并行讀取時如何對表進行分區。 partitionColumn 必須是相關表中的數字、日期或時間戳列。 請注意, lowerBound 和 upperBound 僅用于決定分區步幅,而不是用于過濾表中的行。 因此,表中的所有行都將被分區并返回。 此選項僅適用于讀數據。
    numPartitions 可用于并行讀取和寫入的表的最大分區數。還確定了最大并發JDBC連接數。如果要寫入的分區數超過此限制,我們通過在寫入之前調用coalesce(numPartitions)將其減少到此限制。
    queryTimeout 驅動程序等待Statement對象執行到指定秒數的超時時長。 0意味著沒有限制。在寫入路徑中,此選項取決于JDBC驅動程序如何實現 setQueryTimeout 這個API,例如,h2 JDBC驅動程序檢查每個查詢的超時而不是整個JDBC批處理。它默認為 0 。
    fetchsize JDBC的fetch大小,用于確定每次讀取回合要獲取的行數。這有助于JDBC驅動程序的性能,默認為低fetch大小(例如,Oracle是10行)。 此選項僅適用于讀取。
    batchsize JDBC批處理大小,用于確定每次IO往返要插入的行數。 這有助于JDBC驅動程序的性能。此選項僅適用于寫入。默認為 1000 。
    isolationLevel 事務隔離級別,適用于當前連接。它可以是 NONE , READ_COMMITTED , READ_UNCOMMITTED , REPEATABLE_READ 或 SERIALIZABLE 之一 ,對應于JDBC的Connection對象定義的標準事務隔離級別,默認為 READ_UNCOMMITTED 。此選項僅適用于寫入。 請參閱 java.sql.Connection 中的文檔。
    sessionInitStatement 在向遠程數據庫打開每個數據庫會話之后,在開始讀取數據之前,此選項將執行自定義SQL語句(或PL/SQL塊)。使用它來實現會話初始化代碼。 示例:option("sessionInitStatement", """BEGIN execute immediate 'alter session set "_serial_direct_read"=true'; END;""")
    truncate 這是JDBC writer相關選項。啟用 SaveMode.Overwrite code>時,此選項會導致Spark截斷現有表,而不是刪除并重新創建它。 這可以更有效,并且防止刪除表元數據(例如,索引)。 但是,在某些情況下,例如新數據具有不同的schema時,它將無法工作。 它默認為 false 。 此選項僅適用于寫入。
    cascadeTruncate 這是JDBC writer相關選項。 如果JDBC數據庫(目前是PostgreSQL和Oracle)啟用并支持,則此選項允許執行 TRUNCATE TABLE t CASCADE (在PostgreSQL的情況下, TRUNCATE TABLE ONLY t CASCADE 以防止無意中截斷下層的表)。這將影響其他表,因此應謹慎使用。 此選項僅適用于寫入。它默認為當前配置的JDBC數據庫的默認級聯截斷行為,在每個JDBCDialect中的 isCascadeTruncate 中指定。
    createTableOptions 這是JDBC writer相關選項。如果指定,則此選項允許在創建表時設置特定于數據庫的表和分區選項(例如,CREATE TABLE t (name string) ENGINE=InnoDB)。此選項僅適用于寫入。
    createTableColumnTypes 創建表時要使用的數據庫列的數據類型而不是默認值。應以與CREATE TABLE列語法相同的格式指定數據類型信息(例如:"name CHAR(64), comments VARCHAR(1024)")。指定的類型應該是有效的spark sql數據類型。此選項僅適用于寫入。
    customSchema 用于從JDBC連接器讀取數據的自定義schema。例如,"id DECIMAL(38, 0), name STRING"。 您還可以只指定部分字段,其他字段使用默認類型映射。 例如,"id DECIMAL(38, 0)"。 列名應與JDBC表的相應列名相同。用戶可以指定Spark SQL的相應數據類型,而不是使用默認值。此選項僅適用于讀取。
    pushDownPredicate 這個選項用于在JDBC數據源啟用或禁用謂詞下推。默認值為true,在這種情況下,Spark會盡可能地將過濾條件下推到JDBC數據源。否則,如果設置為false,則不會將過濾條件下推到JDBC數據源,因此所有過濾條件都將由Spark處理。當Spark能夠比JDBC數據源更快地執行謂詞過濾時,謂詞下推通常會被關閉。
    // Note: JDBC loading and saving can be achieved via either the load/save or jdbc methods // Loading data from a JDBC source val jdbcDF = spark.read.format("jdbc").option("url", "jdbc:postgresql:dbserver").option("dbtable", "schema.tablename").option("user", "username").option("password", "password").load()val connectionProperties = new Properties() connectionProperties.put("user", "username") connectionProperties.put("password", "password") val jdbcDF2 = spark.read.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties) // Specifying the custom data types of the read schema connectionProperties.put("customSchema", "id DECIMAL(38, 0), name STRING") val jdbcDF3 = spark.read.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)// Saving data to a JDBC source jdbcDF.write.format("jdbc").option("url", "jdbc:postgresql:dbserver").option("dbtable", "schema.tablename").option("user", "username").option("password", "password").save()jdbcDF2.write.jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)// Specifying create table column data types on write jdbcDF.write.option("createTableColumnTypes", "name CHAR(64), comments VARCHAR(1024)").jdbc("jdbc:postgresql:dbserver", "schema.tablename", connectionProperties)

    Apache Avro 數據源

    從Spark 2.4后,Spark SQL提供對于讀寫Apache Avro數據的內置支持。

    部署

    spark-avro模塊是外置的,默認情況下不包含在spark-submit或spark-shell中。

    與任何Spark應用程序一樣,spark-submit用于啟動您的應用程序。 使用--packages可以將spark-avro_2.11及其依賴項直接添加到spark-submit,例如,

    ./bin/spark-submit --packages org.apache.spark:spark-avro_2.11:2.4.0 ...

    對于在spark-shell上進行試驗,您也可以使用--packages直接添加org.apache.sparkspark-avro_2.11及其依賴項,

    ./bin/spark-shell --packages org.apache.spark:spark-avro_2.11:2.4.0 ...

    Load and Save Functions

    由于spark-avro模塊是外部的,因此DataFrameReader或DataFrameWriter中沒有.avro API。

    要以Avro格式加載/保存數據,您需要將數據源選項格式指定為avro(或org.apache.spark.sql.avro)。

    val usersDF = spark.read.format("avro").load("examples/src/main/resources/users.avro") usersDF.select("name", "favorite_color").write.format("avro").save("namesAndFavColors.avro")

    to_avro() and from_avro()

    Avro軟件包提供了to_avro函數,可以將列編碼為Avro格式的二進制文件,from_avro()將Avro二進制數據解碼為列。兩個函數都將一列轉換為另一列,輸入/輸出SQL數據類型可以是復雜類型或基本類型。

    在讀取或寫入像Kafka這樣的流式數據源時,將Avro記錄作為列非常有用。 每個Kafka鍵值記錄都會增加一些元數據,例如Kafka的攝取時間戳,Kafka的偏移量等。

    • 如果包含數據的“value”字段位于Avro中,則可以使用from_avro()提取數據,豐富數據,清理數據,然后再將其推送到Kafka下游或將其寫入文件。
    • to_avro()可用于將結構體轉換為Avro記錄。 在將數據寫入Kafka時,如果要將多個列重新編碼為單個列,此方法特別有用。
      這兩個方法目前僅支持Scala和Java。
    import org.apache.spark.sql.avro._// `from_avro` requires Avro schema in JSON string format. val jsonFormatSchema = new String(Files.readAllBytes(Paths.get("./examples/src/main/resources/user.avsc")))val df = spark.readStream.format("kafka").option("kafka.bootstrap.servers", "host1:port1,host2:port2").option("subscribe", "topic1").load()// 1. Decode the Avro data into a struct; // 2. Filter by column `favorite_color`; // 3. Encode the column `name` in Avro format. val output = df.select(from_avro('value, jsonFormatSchema) as 'user).where("user.favorite_color == \"red\"").select(to_avro($"user.name") as 'value)val query = output.writeStream.format("kafka").option("kafka.bootstrap.servers", "host1:port1,host2:port2").option("topic", "topic2").start()

    數據源選項

    Avro的數據源選項可以通過DataFrameReader或者DataFrameWriter的.option方法來設置。

    Property NameDefaultMeaningScope
    avroSchemaNone 用戶以JSON格式提供可選的Avro schema。記錄字段的日期類型和命名應匹配輸入的Avro數據或Catalyst數據,否則讀/寫操作將失敗。read and write
    recordNametopLevelRecord 在寫入結果時的頂層記錄名字,這在Avro的spec是需要的write
    recordNamespace""寫入結果的記錄命名空間write
    ignoreExtensiontrue 該選項控制在讀取時忽略沒有 .avro 擴展名的文件。
    如果啟用該選項,則加載所有文件(帶有和不帶 .avro 擴展名)。
    read
    compressionsnappy compression 選項允許指定write中使用的壓縮編解碼器
    目前支持的編解碼器有 uncompressed , snappy , deflate , bzip2 和 xz 。
    如果未設置該選項,則要考慮配置spark.sql.avro.compression.codec
    write

    配置

    可以使用SparkSession的setConf方法或使用SQL運行SET key = value命令來完成Avro的配置。

    Property NameDefaultMeaning
    spark.sql.legacy.replaceDatabricksSparkAvro.enabledtrue 如果設置為true,則數據源提供者 com.databricks.spark.avro 將映射到內置的外部Avro數據源模塊,以實現向后兼容性。
    spark.sql.avro.compression.codecsnappy用于編寫AVRO文件的壓縮編解碼器。支持的編解碼器:uncompressed,deflate,snappy,bzip2和xz。默認編解碼器是snappy。
    spark.sql.avro.deflate.level-1 用于編寫AVRO文件的deflate編解碼器的壓縮級別。 有效值必須介于1到9之間(包括1或9)或-1。 默認值為-1,對應于當前實現中的6級。

    Compatibility with Databricks spark-avro

    此Avro數據源模塊最初來自Databricks的開源存儲庫spark-avro并與之兼容。

    默認情況下,啟用SQL配置spark.sql.legacy.replaceDatabricksSparkAvro.enabled,數據源提供者com.databricks.spark.avro將映射到此內置Avro模塊。對于在目錄元數據庫中使用Provider屬性創建的Spark表作為com.databricks.spark.avro,如果您使用此內置Avro模塊,則映射對于加載這些表至關重要。

    請注意,在Databricks的spark-avro中,為快捷函數.avro()創建了隱式類AvroDataFrameWriter和AvroDataFrameReader。在這個內置但外部的模塊中,兩個隱式類都被刪除了。請改用DataFrameWriter或DataFrameReader中的.format(“avro”),它應該干凈且足夠好。

    如果您更喜歡使用自己構建的spark-avro jar文件,則只需禁用配置spark.sql.legacy.replaceDatabricksSparkAvro.enabled,并在部署應用程序時使用選項--jars。有關詳細信息,請閱讀“應用程序提交指南”中的“高級依賴關系管理”部分。

    Supported types for Avro -> Spark SQL conversion

    目前,Spark支持在Avro記錄下讀取所有原始類型和復雜類型。

    Avro typeSpark SQL type
    booleanBooleanType
    intIntegerType
    longLongType
    floatFloatType
    doubleDoubleType
    stringStringType
    enumStringType
    fixedBinaryType
    bytesBinaryType
    recordStructType
    arrayArrayType
    mapMapType
    unionSee below

    除了上面列出的類型,它還支持讀取聯合類型。 以下三種類型被視為基本聯合類型:

  • union(int, long)將映射到LongType。
  • union(float, double)將映射到DoubleType。
  • union(something, null),其中something是任何支持的Avro類型。這將被映射到與something相同的Spark SQL類型,并將nullable設置為true。所有其他聯合類型都被認為是復雜的 根據union的成員,它們將映射到StructType,其中字段名稱是member0,member1等。 這與Avro和Parquet之間的轉換行為一致。
  • 它還支持讀取以下Avro邏輯類型:

    Avro logical typeAvro typeSpark SQL type
    dateintDateType
    timestamp-millislongTimestampType
    timestamp-microslongTimestampType
    decimalfixedDecimalType
    decimalbytesDecimalType

    目前,它忽略了Avro文件中存在的文檔,別名和其他屬性。

    Supported types for Spark SQL -> Avro conversion

    Spark支持將所有Spark SQL類型寫入Avro。 對于大多數類型,從Spark類型到Avro類型的映射很簡單(例如,IntegerType轉換為int); 但是,下面列出了一些特殊情況:

    Spark SQL typeAvro typeAvro logical type
    ByteTypeint
    ShortTypeint
    BinaryTypebytes
    DateTypeintdate
    TimestampTypelongtimestamp-micros
    DecimalTypefixeddecimal

    您還可以使用選項avroSchema指定整個輸出Avro schema,以便可以將Spark SQL類型轉換為其他Avro類型。 默認情況下不應用以下轉換,并且需要用戶指定的Avro schema:

    Spark SQL typeAvro typeAvro logical type
    BinaryTypefixed
    StringTypeenum
    TimestampTypelongtimestamp-millis
    DecimalTypebytesdecimal

    故障排除Troubleshooting

    • JDBC驅動程序類必須對客戶端會話和所有執行程序上的原始類加載器可見。 這是因為Java的DriverManager類進行了安全檢查,導致它忽略了當打開連接時原始類加載器不可見的所有驅動程序。 一種方便的方法是修改所有工作節點上的compute_classpath.sh以包含驅動程序JAR。
    • 某些數據庫(如H2)會將所有名稱轉換為大寫。您需要使用大寫字母在Spark SQL中引用這些名稱。
    • 用戶可以在數據源選項中指定特定于供應商的JDBC連接屬性以進行特殊處理。例如,spark.read.format("jdbc").option("url", oracleJdbcUrl).option("oracle.jdbc.mapDateToTimestamp", "false")。 oracle.jdbc.mapDateToTimestamp默認為true,用戶通常需要禁用此標志以避免Oracle日期被解析為時間戳。

    性能調優

    對于某些工作負載,可以通過在內存中緩存數據或打開一些實驗選項來提高性能。

    Caching Data In Memory

    Spark SQL可以通過調用spark.catalog.cacheTable("tableName")或dataFrame.cache()使用內存中的列式格式來緩存表。 然后,Spark SQL將僅掃描所需的列,并自動調整壓縮以最小化內存使用和GC壓力。 您可以調用spark.catalog.uncacheTable("tableName")從內存中刪除表。

    可以使用SparkSession的setConf方法或使用SQL運行SET key = value命令來完成內存中緩存的配置。

    Property NameDefaultMeaning
    spark.sql.inMemoryColumnarStorage.compressedtrue 設置為true時,Spark SQL將根據數據統計信息自動為每列選擇壓縮編解碼器。
    spark.sql.inMemoryColumnarStorage.batchSize10000 控制列存緩存的批次大小。較大的批處理大小可以提高內存利用率和壓縮率,但在緩存數據時存在OOM風險。

    其他配置項

    以下選項也可用于調整查詢執行的性能。由于更多優化會自動執行,因此在將來的版本中可能會棄用這些選項。

    Property NameDefaultMeaning
    spark.sql.files.maxPartitionBytes134217728 (128 MB) 讀取文件時打包到單個分區的最大字節數。
    spark.sql.files.openCostInBytes4194304 (4 MB) 打開文件的估計成本是通過可以在同一時間掃描的字節數測量的。這在將多個文件放入分區時是有用的。最好是做過度估計,這樣使用較小文件的分區將比較大文件的分區(首先安排的分區)更快。
    spark.sql.broadcastTimeout300

    廣播連接中廣播等待時間的超時(以秒為單位)

    spark.sql.autoBroadcastJoinThreshold10485760 (10 MB) 配置在執行join時將廣播到所有工作節點的表的最大大小(以字節為單位)。 通過將此值設置為-1,可以禁用廣播。請注意,當前的統計信息僅支持Hive Metastore表,并且其中命令ANALYZE TABLE <tableName> COMPUTE STATISTICS noscan已經運行。
    spark.sql.shuffle.partitions200 配置在為join或聚合shuffle數據時要使用的分區數。

    Broadcast Hint for SQL Queries

    BROADCAST hint指導Spark在將其與另一個表或視圖join時廣播每個指定的表。 當Spark決定join方法時,廣播散列連接(broadcast hash join即BHJ)是首選,即使統計信息高于spark.sql.autoBroadcastJoinThreshold配置的。當join的兩端都被指定時,Spark會廣播具有較低統計信息的那一方。 注意Spark并不保證始終選擇BHJ,因為并非所有情況(例如全外連接)都支持BHJ。 當選擇廣播嵌套循環連接(broadcast nested loop join)時,我們仍然聽從hint的。

    import org.apache.spark.sql.functions.broadcast broadcast(spark.table("src")).join(spark.table("records"), "key").show()

    分布式SQL引擎Distributed SQL Engine

    Spark SQL還可以使用其JDBC/ODBC或命令行界面充當分布式查詢引擎。 在此模式下,最終用戶或應用程序可以直接與Spark SQL交互以運行SQL查詢,而無需編寫任何代碼。

    Running the Thrift JDBC/ODBC server

    此處實現的Thrift JDBC/ODBC服務器對應于Hive 1.2.1中的HiveServer2。 您可以使用Spark或Hive 1.2.1附帶的beeline腳本測試JDBC服務器。

    要啟動JDBC / ODBC服務器,請在Spark目錄中運行以下命令:

    ./sbin/start-thriftserver.sh

    此腳本接受所有bin/spark-submit命令行選項,以及--hiveconf選項以指定Hive屬性。 您可以運行./sbin/start-thriftserver.sh --help以獲取所有可用選項的完整列表。默認情況下,服務器監聽localhost:10000。您可以通過任一環境變量覆蓋此行為,例如:

    export HIVE_SERVER2_THRIFT_PORT=<listening-port> export HIVE_SERVER2_THRIFT_BIND_HOST=<listening-host> ./sbin/start-thriftserver.sh \--master <master-uri> \...

    或者系統屬性system properties

    ./sbin/start-thriftserver.sh \--hiveconf hive.server2.thrift.port=<listening-port> \--hiveconf hive.server2.thrift.bind.host=<listening-host> \--master <master-uri>...

    現在您可以使用beeline來測試Thrift JDBC/ODBC服務器:

    ./bin/beeline

    使用以下方式直接連接到JDBC/ODBC服務器:

    beeline> !connect jdbc:hive2://localhost:10000

    Beeline會詢問您的用戶名和密碼。在非安全模式下,只需在您的計算機上輸入用戶名和空白密碼即可。對于安全模式,請按照beeline文檔中的說明進行操作。

    通過將hive-site.xml,core-site.xml和hdfs-site.xml文件放在conf/中來完成Hive的配置。

    您也可以使用Hive附帶的beeline腳本。

    Thrift JDBC服務器還支持通過HTTP傳輸發送thrift RPC消息。使用以下設置將HTTP模式作為系統屬性或在conf/中的hive-site.xml文件中啟用:

    hive.server2.transport.mode - Set this to value: http hive.server2.thrift.http.port - HTTP port number to listen on; default is 10001 hive.server2.http.endpoint - HTTP endpoint; default is cliservice

    要進行測試,請使用beeline以http模式連接到JDBC/ODBC服務器:

    beeline> !connect jdbc:hive2://<host>:<port>/<database>?hive.server2.transport.mode=http;hive.server2.thrift.http.path=<http_endpoint>

    Running the Spark SQL CLI

    Spark SQL CLI是一種方便的工具,可以在本地模式下運行Hive Metastore服務,并執行從命令行輸入的查詢。 請注意,Spark SQL CLI無法與Thrift JDBC服務器通信。

    要啟動Spark SQL CLI,請在Spark目錄中運行以下命令:

    ./bin/spark-sql

    通過將hive-site.xml,core-site.xml和hdfs-site.xml文件放在conf/中來完成Hive的配置。 您可以運行./bin/spark-sql --help以獲取所有可用選項的完整列表。

    總結

    以上是生活随笔為你收集整理的Spark SQL玩起来的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    又粗又大又硬又长又爽 | 男女爱爱好爽视频免费看 | 久久综合给久久狠狠97色 | 久久视频在线观看精品 | 亚洲s码欧洲m码国产av | 免费视频欧美无人区码 | 亚洲国精产品一二二线 | 成人影院yy111111在线观看 | 国産精品久久久久久久 | 国产成人综合色在线观看网站 | 国产成人综合色在线观看网站 | 日日躁夜夜躁狠狠躁 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲国产一区二区三区在线观看 | 性色av无码免费一区二区三区 | 成人无码视频在线观看网站 | 日本大乳高潮视频在线观看 | 骚片av蜜桃精品一区 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 欧美国产日产一区二区 | 亚洲精品中文字幕 | 亚洲区欧美区综合区自拍区 | 兔费看少妇性l交大片免费 | 久久人人爽人人爽人人片av高清 | 久久人人爽人人爽人人片ⅴ | 日本www一道久久久免费榴莲 | 国産精品久久久久久久 | 国产精华av午夜在线观看 | 久久亚洲国产成人精品性色 | 黑人粗大猛烈进出高潮视频 | 蜜桃无码一区二区三区 | 老司机亚洲精品影院无码 | 国产一区二区三区四区五区加勒比 | 扒开双腿疯狂进出爽爽爽视频 | 内射巨臀欧美在线视频 | 欧美人与物videos另类 | 久久精品中文字幕大胸 | 人人妻人人澡人人爽欧美精品 | 97久久超碰中文字幕 | 国产亚洲精品久久久久久久 | 亚洲欧美日韩国产精品一区二区 | 亚洲国产精品久久人人爱 | 人人澡人人妻人人爽人人蜜桃 | 精品一区二区三区无码免费视频 | 无码纯肉视频在线观看 | 国产欧美亚洲精品a | 亚洲精品久久久久久久久久久 | 娇妻被黑人粗大高潮白浆 | 久久人人爽人人爽人人片av高清 | 欧美成人高清在线播放 | 亚洲成av人片在线观看无码不卡 | 中文亚洲成a人片在线观看 | 99久久婷婷国产综合精品青草免费 | 无码一区二区三区在线 | 亚洲中文字幕无码中文字在线 | 日本饥渴人妻欲求不满 | 九九久久精品国产免费看小说 | 少妇高潮一区二区三区99 | 成人aaa片一区国产精品 | av人摸人人人澡人人超碰下载 | 98国产精品综合一区二区三区 | 亚洲精品国产品国语在线观看 | 无码av岛国片在线播放 | 国产亚洲精品久久久久久 | 国产偷自视频区视频 | 久久久国产精品无码免费专区 | 国产精品福利视频导航 | 丰满护士巨好爽好大乳 | 欧洲美熟女乱又伦 | 在教室伦流澡到高潮hnp视频 | 国产熟女一区二区三区四区五区 | 国产精品久久久久久久影院 | 色综合久久88色综合天天 | 美女黄网站人色视频免费国产 | 中文字幕无码视频专区 | 7777奇米四色成人眼影 | 亚洲精品综合五月久久小说 | 天下第一社区视频www日本 | 亚洲精品国偷拍自产在线观看蜜桃 | 天堂а√在线中文在线 | 东京热无码av男人的天堂 | 日日碰狠狠躁久久躁蜜桃 | 欧美人与物videos另类 | 日产国产精品亚洲系列 | 麻豆国产丝袜白领秘书在线观看 | 成人性做爰aaa片免费看不忠 | 大肉大捧一进一出好爽视频 | 日韩少妇白浆无码系列 | 成人欧美一区二区三区黑人免费 | 久久人妻内射无码一区三区 | 亚洲成av人片天堂网无码】 | 日韩精品无码一区二区中文字幕 | 窝窝午夜理论片影院 | 国产成人无码一二三区视频 | 日本www一道久久久免费榴莲 | 亚洲乱亚洲乱妇50p | 67194成是人免费无码 | 色婷婷欧美在线播放内射 | 性欧美大战久久久久久久 | 1000部啪啪未满十八勿入下载 | 国产无套粉嫩白浆在线 | 少妇性l交大片 | 欧美激情一区二区三区成人 | 国产香蕉尹人视频在线 | 久久精品视频在线看15 | 无遮挡国产高潮视频免费观看 | 无码人妻出轨黑人中文字幕 | 特大黑人娇小亚洲女 | 国产成人无码区免费内射一片色欲 | 九九在线中文字幕无码 | 国产农村妇女高潮大叫 | 男人扒开女人内裤强吻桶进去 | 精品乱码久久久久久久 | 一本色道久久综合亚洲精品不卡 | 奇米影视7777久久精品 | 久久久中文久久久无码 | 欧美精品一区二区精品久久 | 嫩b人妻精品一区二区三区 | 国产一区二区三区精品视频 | 亚洲熟熟妇xxxx | 无码人妻av免费一区二区三区 | 亚洲 高清 成人 动漫 | 国产激情无码一区二区app | 亚洲 另类 在线 欧美 制服 | 人妻少妇精品无码专区二区 | 国产成人一区二区三区别 | 综合人妻久久一区二区精品 | 又大又紧又粉嫩18p少妇 | 亚洲gv猛男gv无码男同 | 成年美女黄网站色大免费全看 | 国产激情综合五月久久 | 波多野结衣高清一区二区三区 | 中文字幕乱妇无码av在线 | 伊人色综合久久天天小片 | 激情亚洲一区国产精品 | 狠狠色噜噜狠狠狠7777奇米 | 一本色道久久综合狠狠躁 | 久久 国产 尿 小便 嘘嘘 | 无码av中文字幕免费放 | 狠狠躁日日躁夜夜躁2020 | 久久99精品国产麻豆 | 狠狠色欧美亚洲狠狠色www | 性欧美熟妇videofreesex | 四虎4hu永久免费 | 国产午夜手机精彩视频 | 亚洲日韩av片在线观看 | 啦啦啦www在线观看免费视频 | 精品国产av色一区二区深夜久久 | 97无码免费人妻超级碰碰夜夜 | 久久精品女人的天堂av | 毛片内射-百度 | 国内少妇偷人精品视频 | 午夜福利一区二区三区在线观看 | 久久熟妇人妻午夜寂寞影院 | 国产精品无套呻吟在线 | 国产成人一区二区三区在线观看 | 亚洲成av人综合在线观看 | 国产熟妇高潮叫床视频播放 | 亚洲中文字幕av在天堂 | 日韩成人一区二区三区在线观看 | 综合网日日天干夜夜久久 | 无码av岛国片在线播放 | 精品无人国产偷自产在线 | 水蜜桃av无码 | 97精品人妻一区二区三区香蕉 | 成人影院yy111111在线观看 | 中文亚洲成a人片在线观看 | 国产午夜无码精品免费看 | 免费观看黄网站 | 久久久久久av无码免费看大片 | 国产无套内射久久久国产 | 人人爽人人爽人人片av亚洲 | 帮老师解开蕾丝奶罩吸乳网站 | 东京一本一道一二三区 | 欧美xxxx黑人又粗又长 | 男女猛烈xx00免费视频试看 | 俄罗斯老熟妇色xxxx | 久久成人a毛片免费观看网站 | 久久人妻内射无码一区三区 | 丰满少妇熟乱xxxxx视频 | 国产疯狂伦交大片 | 少妇一晚三次一区二区三区 | 欧美人与善在线com | 日日摸天天摸爽爽狠狠97 | 精品人妻人人做人人爽 | 一本久道高清无码视频 | 国产后入清纯学生妹 | 国产又粗又硬又大爽黄老大爷视 | 成人无码视频免费播放 | 国产成人av免费观看 | 377p欧洲日本亚洲大胆 | a在线观看免费网站大全 | 亚洲精品国产精品乱码不卡 | 国产精品国产三级国产专播 | 亚洲一区二区三区在线观看网站 | 麻花豆传媒剧国产免费mv在线 | 成人性做爰aaa片免费看不忠 | 伊人色综合久久天天小片 | 国精产品一区二区三区 | 天下第一社区视频www日本 | 无码av岛国片在线播放 | 性开放的女人aaa片 | 国产真实乱对白精彩久久 | 精品久久8x国产免费观看 | 色一情一乱一伦一视频免费看 | 毛片内射-百度 | 性欧美大战久久久久久久 | 老熟妇仑乱视频一区二区 | 久久综合狠狠综合久久综合88 | 狠狠色色综合网站 | 中文字幕色婷婷在线视频 | 精品无码一区二区三区的天堂 | 亚洲成av人影院在线观看 | 久激情内射婷内射蜜桃人妖 | 最新国产乱人伦偷精品免费网站 | 激情爆乳一区二区三区 | 曰韩无码二三区中文字幕 | 免费网站看v片在线18禁无码 | 1000部啪啪未满十八勿入下载 | 久久亚洲中文字幕无码 | 国内精品人妻无码久久久影院蜜桃 | 国产小呦泬泬99精品 | 亚洲精品国偷拍自产在线麻豆 | 亚洲乱码国产乱码精品精 | 亚洲第一网站男人都懂 | 婷婷五月综合缴情在线视频 | 男人和女人高潮免费网站 | 成熟人妻av无码专区 | 亚洲 日韩 欧美 成人 在线观看 | 久久无码专区国产精品s | 伊人久久大香线蕉av一区二区 | 国産精品久久久久久久 | 无遮挡国产高潮视频免费观看 | 亚洲一区二区三区偷拍女厕 | 天天躁夜夜躁狠狠是什么心态 | 99久久无码一区人妻 | 色偷偷人人澡人人爽人人模 | 97精品人妻一区二区三区香蕉 | 天海翼激烈高潮到腰振不止 | 国产精品久久久 | 风流少妇按摩来高潮 | 蜜桃臀无码内射一区二区三区 | 国产精品无码一区二区桃花视频 | 欧洲vodafone精品性 | 免费男性肉肉影院 | 日韩欧美群交p片內射中文 | 日日摸日日碰夜夜爽av | 中文毛片无遮挡高清免费 | 久久久久99精品国产片 | yw尤物av无码国产在线观看 | 亚洲爆乳大丰满无码专区 | 性生交片免费无码看人 | 久在线观看福利视频 | 双乳奶水饱满少妇呻吟 | 国产成人精品必看 | 久久精品成人欧美大片 | 曰本女人与公拘交酡免费视频 | 亚洲精品鲁一鲁一区二区三区 | 精品无码成人片一区二区98 | 东京热无码av男人的天堂 | 99精品无人区乱码1区2区3区 | 女人被爽到呻吟gif动态图视看 | 国内揄拍国内精品少妇国语 | 久久午夜夜伦鲁鲁片无码免费 | 兔费看少妇性l交大片免费 | 成人精品天堂一区二区三区 | 捆绑白丝粉色jk震动捧喷白浆 | 欧美熟妇另类久久久久久不卡 | 免费人成在线视频无码 | 精品无码国产自产拍在线观看蜜 | 亚洲成av人片在线观看无码不卡 | 成人毛片一区二区 | 亚洲gv猛男gv无码男同 | 18精品久久久无码午夜福利 | 一本大道伊人av久久综合 | 性欧美熟妇videofreesex | 无码av中文字幕免费放 | 国产熟女一区二区三区四区五区 | 东北女人啪啪对白 | 久久久久99精品国产片 | 国产综合在线观看 | 一本精品99久久精品77 | 狠狠色欧美亚洲狠狠色www | 狂野欧美激情性xxxx | 精品乱码久久久久久久 | 亚洲综合无码一区二区三区 | 强伦人妻一区二区三区视频18 | 全黄性性激高免费视频 | 99精品久久毛片a片 | 性啪啪chinese东北女人 | 天天拍夜夜添久久精品 | 国产极品美女高潮无套在线观看 | 国产色视频一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 国产极品美女高潮无套在线观看 | 女高中生第一次破苞av | 精品欧洲av无码一区二区三区 | 国产一区二区三区日韩精品 | 国产香蕉97碰碰久久人人 | 天堂一区人妻无码 | 国产人妻久久精品二区三区老狼 | 人人妻人人澡人人爽人人精品浪潮 | 俺去俺来也www色官网 | 少妇久久久久久人妻无码 | 午夜福利一区二区三区在线观看 | 亚洲一区二区三区含羞草 | 清纯唯美经典一区二区 | 黑森林福利视频导航 | 国产色在线 | 国产 | 久久亚洲a片com人成 | 色综合久久久久综合一本到桃花网 | 无码播放一区二区三区 | 亚洲精品www久久久 | 国产精品第一区揄拍无码 | 日日碰狠狠丁香久燥 | 日韩精品久久久肉伦网站 | 日本www一道久久久免费榴莲 | 俺去俺来也www色官网 | 伊人久久大香线焦av综合影院 | 老熟妇乱子伦牲交视频 | 内射欧美老妇wbb | 精品国产aⅴ无码一区二区 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产成人亚洲综合无码 | 国产一区二区不卡老阿姨 | 亚洲欧美日韩国产精品一区二区 | 欧美国产日韩久久mv | 国产成人久久精品流白浆 | 亚洲国产精品美女久久久久 | 国产无遮挡吃胸膜奶免费看 | 无码人妻少妇伦在线电影 | 女人被爽到呻吟gif动态图视看 | 丰满肥臀大屁股熟妇激情视频 | 午夜不卡av免费 一本久久a久久精品vr综合 | 秋霞特色aa大片 | 午夜无码区在线观看 | 噜噜噜亚洲色成人网站 | 欧美日韩综合一区二区三区 | 久久久久久久久蜜桃 | 人人爽人人澡人人人妻 | 久久人妻内射无码一区三区 | 日本www一道久久久免费榴莲 | 白嫩日本少妇做爰 | 少妇人妻大乳在线视频 | 欧美黑人性暴力猛交喷水 | 亚洲精品久久久久久一区二区 | 国产超级va在线观看视频 | av无码不卡在线观看免费 | 婷婷六月久久综合丁香 | 无码人妻丰满熟妇区五十路百度 | 国产亚洲人成a在线v网站 | 国产成人一区二区三区别 | 97久久超碰中文字幕 | 永久黄网站色视频免费直播 | 国产精品理论片在线观看 | 亚洲色偷偷偷综合网 | 日韩人妻无码一区二区三区久久99 | 国产人妻精品一区二区三区 | 乌克兰少妇xxxx做受 | 无码人妻丰满熟妇区毛片18 | 真人与拘做受免费视频一 | 久久国语露脸国产精品电影 | 伊在人天堂亚洲香蕉精品区 | 大肉大捧一进一出好爽视频 | 欧美性猛交xxxx富婆 | 色一情一乱一伦一视频免费看 | 一本久久a久久精品亚洲 | 亚洲成av人片天堂网无码】 | 久久精品国产99久久6动漫 | 亚洲国产精品美女久久久久 | 亚洲中文字幕在线无码一区二区 | 国产精品美女久久久网av | 亚洲人亚洲人成电影网站色 | 高潮喷水的毛片 | 国产乱人无码伦av在线a | 国内综合精品午夜久久资源 | 无遮挡啪啪摇乳动态图 | 国产精品国产自线拍免费软件 | 欧美日韩视频无码一区二区三 | 亚洲精品成人av在线 | 欧美三级a做爰在线观看 | 亚洲国产精品毛片av不卡在线 | 久久久久久久女国产乱让韩 | 国产精品va在线播放 | 国产高清不卡无码视频 | 国产办公室秘书无码精品99 | 中文字幕av日韩精品一区二区 | 国产在线无码精品电影网 | 精品人妻人人做人人爽 | 丰满少妇人妻久久久久久 | 丝袜 中出 制服 人妻 美腿 | 国产精品久久久久久久影院 | 97人妻精品一区二区三区 | 强辱丰满人妻hd中文字幕 | 亚洲中文字幕无码中文字在线 | 久久99精品久久久久婷婷 | 国产精品久久福利网站 | 东京热一精品无码av | 超碰97人人做人人爱少妇 | 国产精品久久久一区二区三区 | 水蜜桃色314在线观看 | 成人亚洲精品久久久久 | 免费人成在线视频无码 | 久久国产精品偷任你爽任你 | 国内少妇偷人精品视频免费 | 东京无码熟妇人妻av在线网址 | 国产精品久久久久久无码 | 久久久久久久久蜜桃 | 欧洲vodafone精品性 | 亚洲精品国偷拍自产在线麻豆 | 亚洲国产精品一区二区美利坚 | 精品无码国产自产拍在线观看蜜 | 亚洲日韩一区二区 | 领导边摸边吃奶边做爽在线观看 | 真人与拘做受免费视频一 | 欧美精品国产综合久久 | 免费观看又污又黄的网站 | 国产黄在线观看免费观看不卡 | 欧美人与牲动交xxxx | 日本一卡2卡3卡四卡精品网站 | 欧美日韩亚洲国产精品 | 无人区乱码一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 内射后入在线观看一区 | 色综合久久中文娱乐网 | 野狼第一精品社区 | 领导边摸边吃奶边做爽在线观看 | 精品少妇爆乳无码av无码专区 | 亚洲自偷自偷在线制服 | 久久99精品久久久久久动态图 | 波多野结衣av一区二区全免费观看 | 亚洲欧洲中文日韩av乱码 | 亚洲精品一区二区三区婷婷月 | 女人被男人爽到呻吟的视频 | 亚洲国产高清在线观看视频 | 青青青手机频在线观看 | 人人妻人人澡人人爽欧美一区 | 岛国片人妻三上悠亚 | 精品人妻人人做人人爽 | 波多野结衣乳巨码无在线观看 | 欧美喷潮久久久xxxxx | 午夜福利一区二区三区在线观看 | 亚洲成熟女人毛毛耸耸多 | 亚洲中文字幕乱码av波多ji | 乱码av麻豆丝袜熟女系列 | 55夜色66夜色国产精品视频 | 好屌草这里只有精品 | 日韩 欧美 动漫 国产 制服 | 精品久久久久香蕉网 | 国产香蕉尹人视频在线 | 国产精品久久久久影院嫩草 | 精品国偷自产在线 | 日韩在线不卡免费视频一区 | 成人免费视频一区二区 | 午夜理论片yy44880影院 | 色诱久久久久综合网ywww | 人妻中文无码久热丝袜 | 色 综合 欧美 亚洲 国产 | 日本丰满护士爆乳xxxx | 免费乱码人妻系列无码专区 | 亚洲综合久久一区二区 | 高清无码午夜福利视频 | 麻豆国产人妻欲求不满 | 在线观看免费人成视频 | 免费视频欧美无人区码 | 内射爽无广熟女亚洲 | 日韩精品一区二区av在线 | 亚洲欧美日韩综合久久久 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲中文无码av永久不收费 | 久在线观看福利视频 | 疯狂三人交性欧美 | 成人无码精品1区2区3区免费看 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲精品鲁一鲁一区二区三区 | 在线 国产 欧美 亚洲 天堂 | 色狠狠av一区二区三区 | 丰满人妻一区二区三区免费视频 | 综合激情五月综合激情五月激情1 | 日本乱偷人妻中文字幕 | 77777熟女视频在线观看 а天堂中文在线官网 | 女人色极品影院 | 少妇太爽了在线观看 | 婷婷丁香六月激情综合啪 | 婷婷色婷婷开心五月四房播播 | 99久久精品国产一区二区蜜芽 | 最新国产麻豆aⅴ精品无码 | 亚洲の无码国产の无码步美 | 亚洲性无码av中文字幕 | 丰满少妇人妻久久久久久 | 日本在线高清不卡免费播放 | 日日天日日夜日日摸 | 精品人妻av区 | 欧美变态另类xxxx | 欧美变态另类xxxx | 国产超级va在线观看视频 | 最新国产乱人伦偷精品免费网站 | 国产精品久久久久7777 | 男女性色大片免费网站 | 国产精品igao视频网 | 天海翼激烈高潮到腰振不止 | 中文字幕日韩精品一区二区三区 | 成人免费无码大片a毛片 | 亚洲熟悉妇女xxx妇女av | 久久国产精品二国产精品 | 免费网站看v片在线18禁无码 | 奇米影视888欧美在线观看 | 国产精品永久免费视频 | 在线成人www免费观看视频 | 精品国产乱码久久久久乱码 | 亚洲综合色区中文字幕 | 精品国产国产综合精品 | 清纯唯美经典一区二区 | 欧美性猛交内射兽交老熟妇 | 久久99精品久久久久婷婷 | 疯狂三人交性欧美 | 高中生自慰www网站 | 国产精品国产自线拍免费软件 | 国产电影无码午夜在线播放 | 动漫av一区二区在线观看 | 日韩精品乱码av一区二区 | 国产高清av在线播放 | 性欧美大战久久久久久久 | 久久久久久九九精品久 | 无码国产乱人伦偷精品视频 | 午夜肉伦伦影院 | 东京热无码av男人的天堂 | 亚洲中文字幕无码中文字在线 | 久久伊人色av天堂九九小黄鸭 | 中文字幕日韩精品一区二区三区 | 久久久久成人片免费观看蜜芽 | 欧洲美熟女乱又伦 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产69精品久久久久app下载 | 国内精品人妻无码久久久影院 | 爽爽影院免费观看 | 久久天天躁狠狠躁夜夜免费观看 | 丰满少妇高潮惨叫视频 | 亚洲国产精品一区二区第一页 | 精品欧美一区二区三区久久久 | 国产美女精品一区二区三区 | 日韩亚洲欧美中文高清在线 | 国产明星裸体无码xxxx视频 | 中文无码成人免费视频在线观看 | 性欧美大战久久久久久久 | 一二三四社区在线中文视频 | 午夜肉伦伦影院 | 正在播放东北夫妻内射 | 人人妻人人澡人人爽精品欧美 | 久久熟妇人妻午夜寂寞影院 | 两性色午夜视频免费播放 | 精品无码国产自产拍在线观看蜜 | 色老头在线一区二区三区 | 色一情一乱一伦一区二区三欧美 | 亚洲欧美中文字幕5发布 | 中文字幕 亚洲精品 第1页 | 午夜精品久久久久久久 | 久久精品国产一区二区三区肥胖 | 成人免费视频视频在线观看 免费 | 国产成人精品三级麻豆 | 中文字幕日产无线码一区 | 少妇性荡欲午夜性开放视频剧场 | 18精品久久久无码午夜福利 | 欧美熟妇另类久久久久久不卡 | 天堂一区人妻无码 | 国产成人无码av在线影院 | 国产精品二区一区二区aⅴ污介绍 | 性欧美疯狂xxxxbbbb | 欧美熟妇另类久久久久久多毛 | 久久亚洲a片com人成 | 亚洲の无码国产の无码影院 | 俄罗斯老熟妇色xxxx | 国产精品多人p群无码 | 99久久久无码国产aaa精品 | 国产又爽又黄又刺激的视频 | yw尤物av无码国产在线观看 | 久久国产精品精品国产色婷婷 | 一本大道伊人av久久综合 | 亚洲精品中文字幕乱码 | 一二三四在线观看免费视频 | 欧美性生交xxxxx久久久 | 日本一卡二卡不卡视频查询 | 精品国精品国产自在久国产87 | 日韩精品无码一本二本三本色 | 午夜精品久久久久久久久 | 鲁鲁鲁爽爽爽在线视频观看 | 人人妻人人澡人人爽欧美精品 | 国产在线aaa片一区二区99 | 国产精品无码永久免费888 | 一本久道久久综合婷婷五月 | 久久久亚洲欧洲日产国码αv | 亚洲最大成人网站 | 领导边摸边吃奶边做爽在线观看 | 极品尤物被啪到呻吟喷水 | 老太婆性杂交欧美肥老太 | 成人免费视频视频在线观看 免费 | 东京热男人av天堂 | 人妻熟女一区 | 日本va欧美va欧美va精品 | 日韩人妻无码一区二区三区久久99 | 丰满少妇人妻久久久久久 | 性生交大片免费看女人按摩摩 | 娇妻被黑人粗大高潮白浆 | 欧美激情综合亚洲一二区 | 亚洲男人av香蕉爽爽爽爽 | 国产疯狂伦交大片 | 亚洲精品综合五月久久小说 | 亚洲人成影院在线无码按摩店 | 亚洲欧美精品aaaaaa片 | 成在人线av无码免观看麻豆 | 老子影院午夜精品无码 | 免费观看黄网站 | 亚洲人成网站色7799 | 日日夜夜撸啊撸 | 亚洲爆乳大丰满无码专区 | 国产精品99爱免费视频 | 99麻豆久久久国产精品免费 | 真人与拘做受免费视频 | 人妻中文无码久热丝袜 | 久久国产精品_国产精品 | 啦啦啦www在线观看免费视频 | 曰本女人与公拘交酡免费视频 | 日韩亚洲欧美中文高清在线 | 色一情一乱一伦一视频免费看 | 久久久久av无码免费网 | 亚洲自偷精品视频自拍 | 欧美人与物videos另类 | 亚洲成a人片在线观看无码3d | 国产片av国语在线观看 | 亚洲国产精品一区二区第一页 | 青青草原综合久久大伊人精品 | 人人澡人人透人人爽 | 亚洲熟妇色xxxxx欧美老妇y | 国产亚洲精品精品国产亚洲综合 | 伊人久久大香线焦av综合影院 | 国内精品九九久久久精品 | 亚洲欧美日韩成人高清在线一区 | 中文字幕无码热在线视频 | 国产又爽又黄又刺激的视频 | 中文字幕人妻无码一区二区三区 | 人人妻人人藻人人爽欧美一区 | 好男人www社区 | 国产做国产爱免费视频 | 久久人妻内射无码一区三区 | 久久综合给久久狠狠97色 | 国产猛烈高潮尖叫视频免费 | 永久免费观看美女裸体的网站 | 麻豆国产人妻欲求不满谁演的 | 中文字幕av无码一区二区三区电影 | 日韩成人一区二区三区在线观看 | 四十如虎的丰满熟妇啪啪 | 成人影院yy111111在线观看 | 久久天天躁狠狠躁夜夜免费观看 | 欧美老妇交乱视频在线观看 | 国产真人无遮挡作爱免费视频 | 亚洲精品一区二区三区四区五区 | 欧美freesex黑人又粗又大 | 精品无人区无码乱码毛片国产 | 成 人影片 免费观看 | 麻豆蜜桃av蜜臀av色欲av | 精品人妻人人做人人爽夜夜爽 | 鲁鲁鲁爽爽爽在线视频观看 | 国产精品沙发午睡系列 | 国内精品一区二区三区不卡 | 天天躁日日躁狠狠躁免费麻豆 | 人妻少妇精品视频专区 | 色欲综合久久中文字幕网 | 国产超碰人人爽人人做人人添 | 中文久久乱码一区二区 | 国产9 9在线 | 中文 | 国产三级久久久精品麻豆三级 | 国产亚洲欧美日韩亚洲中文色 | 国产内射老熟女aaaa | 鲁鲁鲁爽爽爽在线视频观看 | 国产免费久久久久久无码 | 午夜精品一区二区三区的区别 | 狠狠色色综合网站 | 欧美亚洲日韩国产人成在线播放 | 在教室伦流澡到高潮hnp视频 | 成熟女人特级毛片www免费 | 成人免费视频视频在线观看 免费 | 97色伦图片97综合影院 | 对白脏话肉麻粗话av | 成人亚洲精品久久久久软件 | 欧美日韩一区二区免费视频 | 宝宝好涨水快流出来免费视频 | 久久97精品久久久久久久不卡 | 国产精品自产拍在线观看 | 东京热无码av男人的天堂 | 国产午夜精品一区二区三区嫩草 | 国产麻豆精品一区二区三区v视界 | 色噜噜亚洲男人的天堂 | 大屁股大乳丰满人妻 | 久久成人a毛片免费观看网站 | 超碰97人人做人人爱少妇 | 国产精品第一国产精品 | 日本护士xxxxhd少妇 | 久久婷婷五月综合色国产香蕉 | 精品aⅴ一区二区三区 | 亚洲成a人片在线观看无码 | 日本欧美一区二区三区乱码 | 国产成人精品三级麻豆 | 无码国产色欲xxxxx视频 | 中文字幕乱码中文乱码51精品 | 亚洲男人av天堂午夜在 | 精品国产aⅴ无码一区二区 | 九九久久精品国产免费看小说 | 亚洲欧美中文字幕5发布 | 水蜜桃亚洲一二三四在线 | 久久精品女人的天堂av | 四十如虎的丰满熟妇啪啪 | 久久久久99精品成人片 | 永久免费精品精品永久-夜色 | 性欧美疯狂xxxxbbbb | 日本丰满护士爆乳xxxx | 人妻夜夜爽天天爽三区 | 超碰97人人射妻 | 亚洲中文字幕无码一久久区 | 国产一区二区三区日韩精品 | 亚洲天堂2017无码中文 | 亚洲国产精品无码久久久久高潮 | 国产精品久久国产三级国 | 夜精品a片一区二区三区无码白浆 | 荫蒂被男人添的好舒服爽免费视频 | 国产精品美女久久久久av爽李琼 | 亚洲国产精品一区二区美利坚 | 午夜精品一区二区三区的区别 | 精品熟女少妇av免费观看 | 亚洲精品久久久久中文第一幕 | 亚洲精品久久久久久一区二区 | 久久精品国产99精品亚洲 | 久久久久亚洲精品男人的天堂 | 成人三级无码视频在线观看 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品一区三区三区在线观看 | 18禁黄网站男男禁片免费观看 | 亚洲精品成人福利网站 | 中文字幕精品av一区二区五区 | 精品久久久久香蕉网 | 免费无码的av片在线观看 | 国产精品鲁鲁鲁 | av在线亚洲欧洲日产一区二区 | 纯爱无遮挡h肉动漫在线播放 | 精品国产精品久久一区免费式 | 国产av无码专区亚洲a∨毛片 | 久久久精品国产sm最大网站 | 国产做国产爱免费视频 | a国产一区二区免费入口 | 午夜时刻免费入口 | 性欧美videos高清精品 | 久久99国产综合精品 | 亚洲一区二区三区香蕉 | 国产精品嫩草久久久久 | 天堂久久天堂av色综合 | 国产精品鲁鲁鲁 | 人人妻人人澡人人爽欧美精品 | 成人性做爰aaa片免费看 | 人妻互换免费中文字幕 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲中文字幕va福利 | 久久国产自偷自偷免费一区调 | 小sao货水好多真紧h无码视频 | 一本无码人妻在中文字幕免费 | 在线亚洲高清揄拍自拍一品区 | 色综合久久88色综合天天 | 成 人 网 站国产免费观看 | 丝袜人妻一区二区三区 | 精品夜夜澡人妻无码av蜜桃 | 国产又爽又猛又粗的视频a片 | 内射欧美老妇wbb | 精品欧美一区二区三区久久久 | 一本一道久久综合久久 | 亚洲欧美色中文字幕在线 | 玩弄少妇高潮ⅹxxxyw | 亚洲a无码综合a国产av中文 | 欧美成人高清在线播放 | 日韩精品成人一区二区三区 | 伊人久久大香线蕉亚洲 | 午夜精品一区二区三区在线观看 | 97精品人妻一区二区三区香蕉 | 亚洲一区二区观看播放 | 日韩少妇内射免费播放 | 成人动漫在线观看 | 成人三级无码视频在线观看 | 精品欧美一区二区三区久久久 | 欧美成人家庭影院 | 无码国内精品人妻少妇 | 国产精品国产自线拍免费软件 | 国产绳艺sm调教室论坛 | 国产午夜无码精品免费看 | 国产人妻精品午夜福利免费 | 国产区女主播在线观看 | 欧美35页视频在线观看 | 无遮挡国产高潮视频免费观看 | 欧美午夜特黄aaaaaa片 | 欧洲熟妇色 欧美 | 久久熟妇人妻午夜寂寞影院 | 国产香蕉尹人综合在线观看 | 亚洲国产精品久久久久久 | 一区二区传媒有限公司 | 熟女少妇在线视频播放 | 丰满少妇人妻久久久久久 | 无码国产乱人伦偷精品视频 | 妺妺窝人体色www在线小说 | 久久婷婷五月综合色国产香蕉 | 小泽玛莉亚一区二区视频在线 | 野外少妇愉情中文字幕 | 国产97人人超碰caoprom | 久久熟妇人妻午夜寂寞影院 | 日产精品99久久久久久 | 成人精品视频一区二区 | 日本乱人伦片中文三区 | 亚洲中文字幕在线无码一区二区 | 日韩精品成人一区二区三区 | 久久综合给合久久狠狠狠97色 | 女人和拘做爰正片视频 | 麻豆国产人妻欲求不满谁演的 | 美女黄网站人色视频免费国产 | 动漫av一区二区在线观看 | 男人的天堂2018无码 | 国产精品va在线播放 | 久久久国产一区二区三区 | 永久黄网站色视频免费直播 | 国内精品人妻无码久久久影院蜜桃 | 波多野结衣av在线观看 | 鲁鲁鲁爽爽爽在线视频观看 | 国产成人综合色在线观看网站 | 国产人妻大战黑人第1集 | 成在人线av无码免观看麻豆 | 欧美野外疯狂做受xxxx高潮 | 中文无码精品a∨在线观看不卡 | 色婷婷欧美在线播放内射 | 97久久国产亚洲精品超碰热 | 又黄又爽又色的视频 | 国产精品自产拍在线观看 | 亚洲精品午夜国产va久久成人 | 无遮挡国产高潮视频免费观看 | 欧美性猛交内射兽交老熟妇 | 3d动漫精品啪啪一区二区中 | 国产乱人伦av在线无码 | 亚洲阿v天堂在线 | 午夜精品一区二区三区在线观看 | 天海翼激烈高潮到腰振不止 | 福利一区二区三区视频在线观看 | 国内老熟妇对白xxxxhd | 大肉大捧一进一出好爽视频 | 精品无码一区二区三区爱欲 | 国产精品18久久久久久麻辣 | 天堂亚洲免费视频 | 色婷婷综合中文久久一本 | 国产亚洲日韩欧美另类第八页 | 久久久婷婷五月亚洲97号色 | 国产亚洲精品久久久久久久久动漫 | 欧美熟妇另类久久久久久多毛 | 99riav国产精品视频 | 欧美国产日韩亚洲中文 | 日韩人妻少妇一区二区三区 | 精品国产aⅴ无码一区二区 | 国内精品一区二区三区不卡 | 午夜精品久久久久久久 | 亚洲欧美色中文字幕在线 | 亚洲精品成a人在线观看 | 亚洲狠狠婷婷综合久久 | 亚洲成av人片在线观看无码不卡 | 色综合视频一区二区三区 | 欧美精品国产综合久久 | 久久久国产一区二区三区 | 荡女精品导航 | 欧美怡红院免费全部视频 | 亚洲日韩av一区二区三区中文 | 久久人妻内射无码一区三区 | 西西人体www44rt大胆高清 | 国产三级精品三级男人的天堂 | 清纯唯美经典一区二区 | 麻豆精产国品 | 久久精品国产99精品亚洲 | a在线观看免费网站大全 | 波多野42部无码喷潮在线 | 强开小婷嫩苞又嫩又紧视频 | 东北女人啪啪对白 | 1000部夫妻午夜免费 | 丰满少妇女裸体bbw | 人人爽人人澡人人人妻 | 无码帝国www无码专区色综合 | 久久99精品国产.久久久久 | 国产熟女一区二区三区四区五区 | 天堂а√在线地址中文在线 | 熟女少妇在线视频播放 | 国产精品久久久一区二区三区 | 天下第一社区视频www日本 | 好屌草这里只有精品 | 夜先锋av资源网站 | 国产在线精品一区二区高清不卡 | 香蕉久久久久久av成人 | 在线а√天堂中文官网 | 任你躁国产自任一区二区三区 | 亚洲精品成a人在线观看 | 国产精品多人p群无码 | 成人亚洲精品久久久久 | 综合网日日天干夜夜久久 | 最近免费中文字幕中文高清百度 | 性生交大片免费看l | 97精品人妻一区二区三区香蕉 | 性欧美牲交在线视频 | 久久久久99精品国产片 | 久久综合狠狠综合久久综合88 | 日日碰狠狠躁久久躁蜜桃 | 强开小婷嫩苞又嫩又紧视频 | 天堂无码人妻精品一区二区三区 | 成人免费视频视频在线观看 免费 | 天天综合网天天综合色 | 国产精华av午夜在线观看 | 真人与拘做受免费视频 | 国产精品久久福利网站 | 国产乱人无码伦av在线a | 亚洲综合无码久久精品综合 | 国产亚洲欧美日韩亚洲中文色 | 亚洲男女内射在线播放 | 国产乱人伦偷精品视频 | 大肉大捧一进一出视频出来呀 | 免费看男女做好爽好硬视频 | 国产精品无码永久免费888 | 亚洲国产精品无码久久久久高潮 | 欧美兽交xxxx×视频 | 久久熟妇人妻午夜寂寞影院 | 内射巨臀欧美在线视频 | 亚洲精品中文字幕久久久久 | 欧美 亚洲 国产 另类 | 激情国产av做激情国产爱 | 欧美精品一区二区精品久久 | 欧美黑人性暴力猛交喷水 | 窝窝午夜理论片影院 | 在线播放亚洲第一字幕 | 18禁止看的免费污网站 | 国产精品毛多多水多 | 久久精品国产99精品亚洲 | 麻豆成人精品国产免费 | 亚洲 另类 在线 欧美 制服 | 性色av无码免费一区二区三区 | 性啪啪chinese东北女人 | 欧美日本精品一区二区三区 | 麻豆国产丝袜白领秘书在线观看 | 国产av一区二区精品久久凹凸 | 老熟女乱子伦 | 欧美大屁股xxxxhd黑色 | 久久www免费人成人片 | 精品久久8x国产免费观看 | 国产一精品一av一免费 | 亚洲人成网站色7799 | 丰满岳乱妇在线观看中字无码 | 国产极品视觉盛宴 | 久久无码中文字幕免费影院蜜桃 | 亚洲aⅴ无码成人网站国产app | 久久综合狠狠综合久久综合88 | 日韩少妇白浆无码系列 | 人人妻在人人 | 日本成熟视频免费视频 | 亚洲va欧美va天堂v国产综合 | 99久久人妻精品免费二区 | 国产精品久久久久7777 | 女人被男人爽到呻吟的视频 | 免费无码一区二区三区蜜桃大 | 在线观看欧美一区二区三区 | 极品尤物被啪到呻吟喷水 | 中国女人内谢69xxxx | 一区二区传媒有限公司 | aⅴ在线视频男人的天堂 | 国产亚洲精品久久久久久大师 | 国产精品无码mv在线观看 | 久久国产精品二国产精品 | 国内精品人妻无码久久久影院蜜桃 | 午夜精品久久久久久久久 | 亚洲精品一区二区三区四区五区 | 女人被爽到呻吟gif动态图视看 | 色综合久久久无码中文字幕 | 国産精品久久久久久久 | 沈阳熟女露脸对白视频 | 久久久久久九九精品久 | 国产黄在线观看免费观看不卡 | 日韩亚洲欧美中文高清在线 | 美女毛片一区二区三区四区 | 久久精品女人的天堂av | 中文字幕无码视频专区 | 亚洲综合另类小说色区 | 国内精品人妻无码久久久影院 | 日韩av无码一区二区三区不卡 | 亚洲中文字幕成人无码 | 日韩少妇白浆无码系列 | 波多野结衣一区二区三区av免费 | 久久伊人色av天堂九九小黄鸭 | 久久精品成人欧美大片 | 精品熟女少妇av免费观看 | 男女作爱免费网站 | 久久精品国产99久久6动漫 | 国产精品资源一区二区 | 国产成人人人97超碰超爽8 | 在线播放亚洲第一字幕 | 亚洲色大成网站www | 女人被男人躁得好爽免费视频 | 好男人www社区 | 亚洲精品国偷拍自产在线麻豆 | 国产手机在线αⅴ片无码观看 | 精品成人av一区二区三区 | 亚洲色在线无码国产精品不卡 | 国产婷婷色一区二区三区在线 | 亚洲男人av天堂午夜在 | 亚洲欧美日韩成人高清在线一区 | 国产小呦泬泬99精品 | 青青久在线视频免费观看 | 国产人妻大战黑人第1集 | 精品日本一区二区三区在线观看 | 特黄特色大片免费播放器图片 | 任你躁国产自任一区二区三区 | 欧美人与牲动交xxxx | 蜜桃av抽搐高潮一区二区 | 国产精品亚洲一区二区三区喷水 | 亚洲欧洲无卡二区视頻 | 国产黑色丝袜在线播放 | 天天躁日日躁狠狠躁免费麻豆 | 久久99热只有频精品8 | 欧洲极品少妇 | 免费无码肉片在线观看 | 性欧美牲交在线视频 | 亚洲色成人中文字幕网站 | 两性色午夜免费视频 | 日本高清一区免费中文视频 | 亚洲第一网站男人都懂 | 奇米影视7777久久精品人人爽 | 国产午夜无码视频在线观看 | 国产精品对白交换视频 | 在线亚洲高清揄拍自拍一品区 | 久久久中文字幕日本无吗 | 国产舌乚八伦偷品w中 | 亚洲欧洲无卡二区视頻 | 午夜熟女插插xx免费视频 | 三上悠亚人妻中文字幕在线 | 国产精品嫩草久久久久 | 精品无码国产自产拍在线观看蜜 | 强开小婷嫩苞又嫩又紧视频 | 免费人成网站视频在线观看 | 国产香蕉尹人视频在线 | 亚洲成av人片天堂网无码】 | 欧美xxxxx精品 | 国产内射爽爽大片视频社区在线 | 国产乱人无码伦av在线a | 日日天日日夜日日摸 | 大屁股大乳丰满人妻 | 免费人成网站视频在线观看 | 人妻中文无码久热丝袜 | 国产麻豆精品一区二区三区v视界 | 欧美熟妇另类久久久久久不卡 | 亚洲日本va中文字幕 | 亚洲欧美国产精品久久 | 亚洲色在线无码国产精品不卡 | 中文字幕日韩精品一区二区三区 | 装睡被陌生人摸出水好爽 | 国产疯狂伦交大片 | 亚洲精品一区国产 | 亚洲中文字幕无码中文字在线 | 日日天干夜夜狠狠爱 | 午夜福利一区二区三区在线观看 | 欧美老人巨大xxxx做受 | 午夜丰满少妇性开放视频 | 国产激情无码一区二区 | 亚洲中文字幕无码中字 | 伊人久久大香线蕉亚洲 | 亚洲人成网站免费播放 | 99er热精品视频 | 精品人人妻人人澡人人爽人人 | 99麻豆久久久国产精品免费 | 99久久婷婷国产综合精品青草免费 | 青青青爽视频在线观看 | 激情亚洲一区国产精品 | 国产精品无码一区二区桃花视频 | 无码午夜成人1000部免费视频 | 性欧美大战久久久久久久 | 久久国语露脸国产精品电影 | 无码人妻少妇伦在线电影 | 天堂а√在线中文在线 | 国产成人综合在线女婷五月99播放 | 麻豆国产人妻欲求不满 | 欧美性猛交xxxx富婆 | 亚洲经典千人经典日产 | 色婷婷欧美在线播放内射 | 久久伊人色av天堂九九小黄鸭 | 国内综合精品午夜久久资源 | 九九热爱视频精品 | 亚洲中文字幕在线无码一区二区 | 日韩人妻少妇一区二区三区 | 丝袜美腿亚洲一区二区 | 精品日本一区二区三区在线观看 | 色偷偷人人澡人人爽人人模 | 久久亚洲精品中文字幕无男同 | 国产国语老龄妇女a片 | 成人欧美一区二区三区黑人 | 久久久婷婷五月亚洲97号色 | 女人被爽到呻吟gif动态图视看 | 图片小说视频一区二区 | 97夜夜澡人人爽人人喊中国片 | 久久这里只有精品视频9 | 一个人看的视频www在线 | 精品一区二区三区波多野结衣 | 又紧又大又爽精品一区二区 | 在线播放无码字幕亚洲 | 久久精品国产大片免费观看 | 三级4级全黄60分钟 | 国产午夜亚洲精品不卡下载 | 国产无套内射久久久国产 | 亚洲欧美色中文字幕在线 | 97久久精品无码一区二区 | 99久久亚洲精品无码毛片 | 狠狠cao日日穞夜夜穞av | 乌克兰少妇xxxx做受 | 成人精品视频一区二区三区尤物 | 无遮挡啪啪摇乳动态图 | 国产精品亚洲专区无码不卡 | 亚洲欧洲日本无在线码 | 国产精品a成v人在线播放 | 国产成人无码专区 | 国产精品久久久久久无码 | 国产麻豆精品精东影业av网站 | 欧美人与牲动交xxxx | 亚洲综合精品香蕉久久网 | 国产成人无码av一区二区 | 领导边摸边吃奶边做爽在线观看 | 亚洲色在线无码国产精品不卡 | 国产午夜亚洲精品不卡 | 欧美日本精品一区二区三区 | 人人妻人人澡人人爽精品欧美 | 成 人 网 站国产免费观看 | 亚洲午夜无码久久 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产精品理论片在线观看 | a片免费视频在线观看 | 久久99精品国产麻豆蜜芽 | 77777熟女视频在线观看 а天堂中文在线官网 | 性色欲情网站iwww九文堂 | 久久婷婷五月综合色国产香蕉 | 精品国产青草久久久久福利 | 婷婷丁香六月激情综合啪 | 中文字幕无码免费久久9一区9 | 日韩亚洲欧美精品综合 | 国产三级精品三级男人的天堂 | 男人的天堂av网站 | 欧美兽交xxxx×视频 | 丁香花在线影院观看在线播放 | 久久久www成人免费毛片 | 久久99久久99精品中文字幕 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲成av人片天堂网无码】 | 亚洲乱码日产精品bd | 国产农村乱对白刺激视频 | 久久久久亚洲精品男人的天堂 | 国产亚洲精品久久久闺蜜 | 亚洲精品一区三区三区在线观看 | 丁香啪啪综合成人亚洲 | 中文字幕无码日韩欧毛 | 日本熟妇浓毛 | 51国偷自产一区二区三区 | 无套内射视频囯产 | 免费国产成人高清在线观看网站 | 成 人 免费观看网站 | 成熟妇人a片免费看网站 | 国产麻豆精品一区二区三区v视界 | 亚洲区欧美区综合区自拍区 | 天海翼激烈高潮到腰振不止 | 国产午夜福利亚洲第一 | 人人妻人人澡人人爽精品欧美 | 国产三级精品三级男人的天堂 | 久久精品国产一区二区三区 | 18禁黄网站男男禁片免费观看 | 国产两女互慰高潮视频在线观看 | 日韩精品a片一区二区三区妖精 | 麻豆av传媒蜜桃天美传媒 | 成人精品一区二区三区中文字幕 | а√天堂www在线天堂小说 | 初尝人妻少妇中文字幕 | 欧美亚洲国产一区二区三区 | 亚洲精品国产精品乱码视色 | 亚洲日韩一区二区三区 | 日本护士毛茸茸高潮 | 丝袜 中出 制服 人妻 美腿 | 国产欧美熟妇另类久久久 | 国产乡下妇女做爰 | 夜先锋av资源网站 | 7777奇米四色成人眼影 | 精品国产精品久久一区免费式 | 曰韩少妇内射免费播放 | 国产激情艳情在线看视频 | 少女韩国电视剧在线观看完整 | 欧美 日韩 亚洲 在线 | 老熟妇仑乱视频一区二区 | 日产精品99久久久久久 | 免费无码午夜福利片69 | 精品国产福利一区二区 | 色偷偷人人澡人人爽人人模 | 国产极品视觉盛宴 | 亚洲综合色区中文字幕 | 天干天干啦夜天干天2017 | 7777奇米四色成人眼影 | 一本久道久久综合婷婷五月 | 又大又紧又粉嫩18p少妇 | 窝窝午夜理论片影院 | 午夜成人1000部免费视频 | 天下第一社区视频www日本 | 色五月五月丁香亚洲综合网 | 男女猛烈xx00免费视频试看 | 永久免费精品精品永久-夜色 | 5858s亚洲色大成网站www | 激情内射日本一区二区三区 | 女人和拘做爰正片视频 | 无遮挡国产高潮视频免费观看 | 久久综合九色综合97网 | 欧美兽交xxxx×视频 | 一本色道久久综合亚洲精品不卡 | 国产精品无码一区二区三区不卡 | 午夜性刺激在线视频免费 | 少妇无码一区二区二三区 | 7777奇米四色成人眼影 | 欧美人与禽zoz0性伦交 | 精品熟女少妇av免费观看 | 中文字幕日韩精品一区二区三区 | 国产三级精品三级男人的天堂 | 亚洲精品一区二区三区在线 | 久久亚洲中文字幕无码 | 国产人妻精品一区二区三区不卡 | 无码av中文字幕免费放 | 欧美日韩视频无码一区二区三 | 国产超碰人人爽人人做人人添 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 少妇无套内谢久久久久 | 无码人妻丰满熟妇区毛片18 | 99久久精品日本一区二区免费 | 一区二区传媒有限公司 | 最近中文2019字幕第二页 | 亚洲精品国产a久久久久久 | 日本大香伊一区二区三区 | 色妞www精品免费视频 | 日本精品久久久久中文字幕 | 好屌草这里只有精品 | 青青青爽视频在线观看 | 欧美老妇与禽交 | 性欧美大战久久久久久久 | 国产精品99爱免费视频 | 国产无av码在线观看 | 国产后入清纯学生妹 | 偷窥村妇洗澡毛毛多 | 日本护士毛茸茸高潮 | 午夜丰满少妇性开放视频 | 爽爽影院免费观看 | 领导边摸边吃奶边做爽在线观看 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产午夜亚洲精品不卡 | 又大又黄又粗又爽的免费视频 | 熟女俱乐部五十路六十路av | 99在线 | 亚洲 | 樱花草在线播放免费中文 | 亚洲 另类 在线 欧美 制服 | 少妇高潮一区二区三区99 | 色婷婷香蕉在线一区二区 | 午夜熟女插插xx免费视频 | 性欧美videos高清精品 | 日韩av无码一区二区三区不卡 | 丰满人妻一区二区三区免费视频 | 少妇激情av一区二区 | 免费国产成人高清在线观看网站 | 亚洲成a人片在线观看无码3d | 久久久久免费精品国产 | 国产成人一区二区三区在线观看 | 久久精品国产99久久6动漫 | 欧美第一黄网免费网站 | 亚洲色无码一区二区三区 | 九月婷婷人人澡人人添人人爽 | 日本精品人妻无码77777 天堂一区人妻无码 | 国产午夜手机精彩视频 | 国产精品久久久久久无码 | 97精品国产97久久久久久免费 | 国产高潮视频在线观看 | 夜精品a片一区二区三区无码白浆 | 一个人看的www免费视频在线观看 | 中文精品久久久久人妻不卡 | 欧美猛少妇色xxxxx | 亚洲爆乳大丰满无码专区 | 色综合久久中文娱乐网 | 国产凸凹视频一区二区 | 人人妻人人藻人人爽欧美一区 | 久久精品国产一区二区三区肥胖 | 成人无码视频在线观看网站 | 亚洲精品一区二区三区婷婷月 | 国产办公室秘书无码精品99 | 无码帝国www无码专区色综合 | 国内丰满熟女出轨videos | 成人精品视频一区二区三区尤物 | 久久久久久久人妻无码中文字幕爆 | 熟妇人妻激情偷爽文 | 国产乱码精品一品二品 | 国产性生大片免费观看性 | 大肉大捧一进一出好爽视频 | 一本一道久久综合久久 | 国产内射爽爽大片视频社区在线 | www国产亚洲精品久久久日本 | 欧美野外疯狂做受xxxx高潮 | 亚洲日韩av片在线观看 | 黑人巨大精品欧美一区二区 | 日韩av无码一区二区三区 | 奇米影视888欧美在线观看 | 国产成人久久精品流白浆 | 久久久久国色av免费观看性色 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 内射老妇bbwx0c0ck | 色爱情人网站 | 久久99精品国产麻豆蜜芽 | 亚洲精品国偷拍自产在线观看蜜桃 | 日韩视频 中文字幕 视频一区 | 一本久久伊人热热精品中文字幕 | 一本久道久久综合狠狠爱 | 天天燥日日燥 | 亚欧洲精品在线视频免费观看 | 欧美国产日产一区二区 | 性色欲情网站iwww九文堂 | 色欲久久久天天天综合网精品 | 久久国产劲爆∧v内射 | 欧美亚洲日韩国产人成在线播放 | 无码一区二区三区在线观看 | 婷婷六月久久综合丁香 | 国产成人无码午夜视频在线观看 | 日产精品高潮呻吟av久久 | 国产卡一卡二卡三 | 亚洲欧美精品伊人久久 | 日韩成人一区二区三区在线观看 | 国产人妖乱国产精品人妖 | 亚洲精品国产品国语在线观看 | 精品久久久中文字幕人妻 | 捆绑白丝粉色jk震动捧喷白浆 | 欧美 亚洲 国产 另类 | 亚洲日本va午夜在线电影 | 人妻有码中文字幕在线 | 婷婷综合久久中文字幕蜜桃三电影 | 欧美日韩视频无码一区二区三 | 国产精品亚洲一区二区三区喷水 | 久久婷婷五月综合色国产香蕉 | 乱人伦人妻中文字幕无码 | 人妻无码久久精品人妻 | 在线欧美精品一区二区三区 | 未满小14洗澡无码视频网站 | 国产精华av午夜在线观看 | 久久综合久久自在自线精品自 | 丰满岳乱妇在线观看中字无码 | 免费看少妇作爱视频 | 国产精品久久久久7777 | 99久久久无码国产精品免费 | 成人免费视频一区二区 | 图片区 小说区 区 亚洲五月 | 欧美xxxxx精品 | 对白脏话肉麻粗话av | 国内精品久久久久久中文字幕 | 欧美zoozzooz性欧美 | 亚洲日韩av片在线观看 | 国产色xx群视频射精 | 亚洲va欧美va天堂v国产综合 | 久久精品国产日本波多野结衣 | 一个人看的www免费视频在线观看 | 极品尤物被啪到呻吟喷水 | 国产午夜手机精彩视频 | 国产精品无码mv在线观看 | 强伦人妻一区二区三区视频18 | 成熟妇人a片免费看网站 | 在线播放无码字幕亚洲 | 狠狠色丁香久久婷婷综合五月 | 少妇太爽了在线观看 | 精品一区二区三区无码免费视频 | 久久人人爽人人爽人人片ⅴ | 搡女人真爽免费视频大全 | 亚洲天堂2017无码 | 欧美freesex黑人又粗又大 | 国产黑色丝袜在线播放 | 亚洲人成影院在线观看 | 国产精品-区区久久久狼 | 日韩欧美中文字幕公布 | 在线播放亚洲第一字幕 | 曰韩少妇内射免费播放 | 亚洲精品国产第一综合99久久 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 婷婷五月综合激情中文字幕 | 国产成人无码区免费内射一片色欲 | 丰满少妇弄高潮了www | 婷婷六月久久综合丁香 | www国产亚洲精品久久网站 | 无码人妻丰满熟妇区毛片18 | 亚洲 欧美 激情 小说 另类 | 一区二区三区乱码在线 | 欧洲 | 性欧美疯狂xxxxbbbb | 亚洲а∨天堂久久精品2021 | 人妻体内射精一区二区三四 | √天堂资源地址中文在线 | 又大又硬又爽免费视频 | 国产精品久久久久9999小说 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久久亚洲欧洲日产国码αv | 亚洲精品成a人在线观看 | 国内综合精品午夜久久资源 | 精品一区二区三区波多野结衣 | 99在线 | 亚洲 | 国产精品亚洲一区二区三区喷水 | 国産精品久久久久久久 | 乱人伦人妻中文字幕无码 | 真人与拘做受免费视频 | 国产激情精品一区二区三区 | 亚洲s码欧洲m码国产av | 乱码av麻豆丝袜熟女系列 | 亚洲精品久久久久久一区二区 | 无码人妻少妇伦在线电影 | 秋霞成人午夜鲁丝一区二区三区 | 国产乱人偷精品人妻a片 | 国产超碰人人爽人人做人人添 | 欧美人与禽猛交狂配 | 国产午夜福利100集发布 | 动漫av一区二区在线观看 | 亚洲乱码中文字幕在线 | 亚洲自偷自拍另类第1页 | 国产精品久久久久9999小说 | 中文字幕精品av一区二区五区 | 日韩精品久久久肉伦网站 | 丰腴饱满的极品熟妇 | 久久久久se色偷偷亚洲精品av | 无码国模国产在线观看 | 国产精品久久久久无码av色戒 | 国内揄拍国内精品人妻 | 丰满岳乱妇在线观看中字无码 | 欧美性猛交xxxx富婆 | 双乳奶水饱满少妇呻吟 | 亚洲毛片av日韩av无码 | 无码吃奶揉捏奶头高潮视频 | 国产成人av免费观看 | 国产精品二区一区二区aⅴ污介绍 | 国产亚洲视频中文字幕97精品 | 97无码免费人妻超级碰碰夜夜 | 亚洲aⅴ无码成人网站国产app | 日本va欧美va欧美va精品 | 国产99久久精品一区二区 | 老太婆性杂交欧美肥老太 | 人人爽人人爽人人片av亚洲 | 婷婷五月综合激情中文字幕 | 亚洲理论电影在线观看 | 国产精品久久久久久久9999 | 亚洲日韩一区二区三区 | 欧美成人免费全部网站 | 国产亚洲精品久久久闺蜜 | 久久久精品欧美一区二区免费 | 伊在人天堂亚洲香蕉精品区 | 久久久久国色av免费观看性色 | 亚洲人成网站在线播放942 | 欧洲美熟女乱又伦 | 国产无套粉嫩白浆在线 | 国产人妻久久精品二区三区老狼 | 99久久人妻精品免费二区 | 伊人久久大香线蕉午夜 | 国产精品高潮呻吟av久久4虎 | 亚洲日本va午夜在线电影 | 三上悠亚人妻中文字幕在线 | 性做久久久久久久久 | 激情五月综合色婷婷一区二区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲成av人片在线观看无码不卡 | 国产真实乱对白精彩久久 | 日日碰狠狠丁香久燥 | 波多野42部无码喷潮在线 | 国产午夜亚洲精品不卡下载 | 熟女少妇在线视频播放 | 小鲜肉自慰网站xnxx | 精品国精品国产自在久国产87 | 荫蒂添的好舒服视频囗交 | 少妇厨房愉情理9仑片视频 | 国产精品亚洲а∨无码播放麻豆 | 国产精品久免费的黄网站 | 国产乱人伦偷精品视频 | 色一情一乱一伦一区二区三欧美 | 国产在线精品一区二区高清不卡 | 中文字幕乱码人妻无码久久 | 午夜成人1000部免费视频 | 久久99久久99精品中文字幕 | 鲁大师影院在线观看 | 亚洲精品一区二区三区婷婷月 | 激情综合激情五月俺也去 | 999久久久国产精品消防器材 | 国产精品第一区揄拍无码 | 999久久久国产精品消防器材 | 国产乱人伦av在线无码 | 色情久久久av熟女人妻网站 | 日韩 欧美 动漫 国产 制服 | 亚洲狠狠婷婷综合久久 | 亚洲人成网站在线播放942 | 夫妻免费无码v看片 | 红桃av一区二区三区在线无码av | 国产精品高潮呻吟av久久 | 妺妺窝人体色www婷婷 | 免费无码一区二区三区蜜桃大 | 毛片内射-百度 | 亚洲成熟女人毛毛耸耸多 | 99国产精品白浆在线观看免费 | 国产综合久久久久鬼色 | 日产精品99久久久久久 | 中文字幕无码免费久久9一区9 | 色婷婷欧美在线播放内射 | 无码吃奶揉捏奶头高潮视频 | 人人爽人人澡人人高潮 | 日日碰狠狠躁久久躁蜜桃 | 日本一区二区三区免费播放 | 激情爆乳一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 国产极品视觉盛宴 | 亚洲综合无码久久精品综合 | 少妇厨房愉情理9仑片视频 | 亚洲综合另类小说色区 | 亚洲精品国产品国语在线观看 | 欧美 日韩 亚洲 在线 | 狠狠色噜噜狠狠狠狠7777米奇 | 欧美精品免费观看二区 | 日本精品少妇一区二区三区 | 日本www一道久久久免费榴莲 | 亚洲中文字幕av在天堂 | 国产精品无码永久免费888 | 亚洲a无码综合a国产av中文 | 精品日本一区二区三区在线观看 | 亚洲精品www久久久 | 亚洲中文字幕在线无码一区二区 | 精品久久久久久亚洲精品 | 久久久精品欧美一区二区免费 | 一区二区三区高清视频一 | 亚洲精品午夜国产va久久成人 | 日本肉体xxxx裸交 | 国产av无码专区亚洲a∨毛片 | 日本乱人伦片中文三区 | 色诱久久久久综合网ywww | 国产综合久久久久鬼色 | 久久伊人色av天堂九九小黄鸭 | 欧美精品在线观看 | 99久久精品日本一区二区免费 | 久久无码中文字幕免费影院蜜桃 | 欧美性猛交xxxx富婆 | 国产成人人人97超碰超爽8 | 精品国产aⅴ无码一区二区 | 日韩人妻系列无码专区 | 乱人伦人妻中文字幕无码久久网 | 粉嫩少妇内射浓精videos | 亚洲精品国偷拍自产在线麻豆 | 午夜福利一区二区三区在线观看 | 免费无码av一区二区 | 国产精品人人爽人人做我的可爱 | 色诱久久久久综合网ywww | 色综合久久久无码网中文 | 狠狠色欧美亚洲狠狠色www | 又紧又大又爽精品一区二区 | 无码精品人妻一区二区三区av | 亚洲精品一区国产 | 少妇高潮喷潮久久久影院 | 人妻少妇精品久久 | 久久99精品国产麻豆 | 成人女人看片免费视频放人 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产亚洲精品久久久久久国模美 | 桃花色综合影院 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲精品国产a久久久久久 | 亚洲精品一区国产 | 欧美一区二区三区视频在线观看 | 欧美亚洲国产一区二区三区 | 99re在线播放 | 动漫av一区二区在线观看 | 国产无遮挡又黄又爽又色 | 欧美丰满熟妇xxxx性ppx人交 | 久久久久久亚洲精品a片成人 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 日韩av无码中文无码电影 | 欧美国产日韩亚洲中文 | 国产高潮视频在线观看 | 少妇无码av无码专区在线观看 | 精品一区二区三区无码免费视频 | 国产内射爽爽大片视频社区在线 | www国产亚洲精品久久久日本 | 中文字幕人妻丝袜二区 | 欧美精品一区二区精品久久 | 国产成人午夜福利在线播放 | 欧美人与物videos另类 | 娇妻被黑人粗大高潮白浆 | 俺去俺来也在线www色官网 | 国产乱人偷精品人妻a片 | 美女扒开屁股让男人桶 | 少妇性俱乐部纵欲狂欢电影 | 人妻有码中文字幕在线 | 人妻少妇精品久久 | 久久精品国产一区二区三区肥胖 | 成人免费视频在线观看 | 5858s亚洲色大成网站www | 欧美亚洲日韩国产人成在线播放 | 亚洲熟妇色xxxxx欧美老妇y | 久久久www成人免费毛片 | 无码av岛国片在线播放 | 超碰97人人射妻 | 无码精品人妻一区二区三区av | 亚洲娇小与黑人巨大交 | 人人妻人人澡人人爽精品欧美 | 日本一卡二卡不卡视频查询 | 日韩视频 中文字幕 视频一区 | 国产人妻精品一区二区三区 | 少妇邻居内射在线 | 乱码午夜-极国产极内射 | 小泽玛莉亚一区二区视频在线 | аⅴ资源天堂资源库在线 | 午夜丰满少妇性开放视频 | 亚洲小说春色综合另类 | 亚洲一区二区三区国产精华液 | 蜜桃无码一区二区三区 | 中国大陆精品视频xxxx | 黑人粗大猛烈进出高潮视频 | 亚洲国产精品美女久久久久 | 18精品久久久无码午夜福利 | 亚洲日本一区二区三区在线 | 亚洲欧美日韩国产精品一区二区 | 国产精品久久久一区二区三区 | 动漫av一区二区在线观看 | 亚洲中文字幕成人无码 | 国产亚洲精品精品国产亚洲综合 | 牲欲强的熟妇农村老妇女视频 | 又湿又紧又大又爽a视频国产 | 国产精品va在线播放 | a在线亚洲男人的天堂 | 亚洲精品一区二区三区在线 | 一区二区三区高清视频一 | 国产av一区二区精品久久凹凸 | 爱做久久久久久 | 丰满少妇高潮惨叫视频 | 国产精品永久免费视频 | 久久精品中文字幕大胸 | 偷窥村妇洗澡毛毛多 | 国产乱人偷精品人妻a片 | 国产精品亚洲一区二区三区喷水 | 无码精品人妻一区二区三区av | 樱花草在线社区www | 中文字幕av伊人av无码av | 牲交欧美兽交欧美 | 亚洲精品成a人在线观看 | 一二三四社区在线中文视频 | 噜噜噜亚洲色成人网站 | 日本va欧美va欧美va精品 | 麻豆蜜桃av蜜臀av色欲av | 亚洲午夜久久久影院 | 激情五月综合色婷婷一区二区 | 亚洲天堂2017无码中文 | 一本色道久久综合亚洲精品不卡 | 女人和拘做爰正片视频 | 欧美野外疯狂做受xxxx高潮 | 色噜噜亚洲男人的天堂 | 国产成人无码区免费内射一片色欲 | 狠狠噜狠狠狠狠丁香五月 | 精品国产一区二区三区四区在线看 | 久久zyz资源站无码中文动漫 | 青青青手机频在线观看 | 亚洲成av人综合在线观看 | 亚洲精品成人福利网站 | 亚洲欧美国产精品专区久久 | 性开放的女人aaa片 | 老头边吃奶边弄进去呻吟 | 精品亚洲成av人在线观看 | 一本久道高清无码视频 | 国内精品人妻无码久久久影院蜜桃 | 狂野欧美性猛xxxx乱大交 | 精品国产国产综合精品 | 人妻无码久久精品人妻 | 欧美激情内射喷水高潮 | 高清无码午夜福利视频 | 综合网日日天干夜夜久久 | 东京热一精品无码av | 亚洲欧美日韩成人高清在线一区 | 黄网在线观看免费网站 | 色欲av亚洲一区无码少妇 |