3atv精品不卡视频,97人人超碰国产精品最新,中文字幕av一区二区三区人妻少妇,久久久精品波多野结衣,日韩一区二区三区精品

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

spark DAGScheduler、TaskSchedule、Executor执行task源码分析

發(fā)布時間:2025/3/8 编程问答 10 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark DAGScheduler、TaskSchedule、Executor执行task源码分析 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

摘要

spark的調(diào)度一直是我想搞清楚的東西,以及有向無環(huán)圖的生成過程、task的調(diào)度、rdd的延遲執(zhí)行是怎么發(fā)生的和如何完成的,還要就是RDD的compute都是在executor的哪個階段調(diào)用和執(zhí)行我們定義的函數(shù)的。這些都非常的基礎和困難。花一段時間終于弄白了其中的奧秘??偨Y(jié)起來,以便以后繼續(xù)完善。spark的調(diào)度分為兩級調(diào)度:DAGSchedule和TaskSchedule。DAGSchedule是根據(jù)job來生成相互依賴的stages,然后把stages以TaskSet形式傳遞給TaskSchedule來進行任務的分發(fā)過程,里面的細節(jié)會慢慢的講解出來的,比較長。

本文目錄

1、spark的RDD邏輯執(zhí)行鏈
2、spark的job的劃分、stage的劃分
3、spark的DAGScheduler的調(diào)度
4、spark的TaskSchedule的調(diào)度
5、executor如何執(zhí)行task以及我們定義的函數(shù)

spark的RDD的邏輯執(zhí)行鏈

都說spark進行延遲執(zhí)行,通過RDD的DAG來生成相應的Stage等,RDD的DAG的形成過程,是通過依賴來完成的,每一個RDD通過轉(zhuǎn)換算子的時候都會生成一個和多個子RDD,在通過轉(zhuǎn)換算子的時候,在創(chuàng)建一個新的RDD的時候,也會創(chuàng)建他們之間的依賴關系。因此他們是通過Dependencies連接起來的,RDD的依賴不是我們的重點,如果想了解RDD的依賴,可以自行g(shù)oogle,RDD的依賴分為:1:1的OneToOneDependency,m:1的RangeDependency,還有m:n的ShuffleDependencies,其中OneToOneDependency和RangeDependency又被稱為NarrowDependency,這里的1:1,m:1,m:n的粒度是對于RDD的分區(qū)而言的。

依賴中最根本的是保留了父RDD,其rdd的方法就是返回父RDD的方法。這樣其就形成了一個鏈表形式的結(jié)構(gòu),通過最后面的RDD根據(jù)依賴,可以向前回溯到所有的父類RDD。
我們以map為例,來看一下依賴是如何產(chǎn)生的。

通過map其實其實創(chuàng)建了一個MapPartitonsRDD的RDD

然后我們看一下MapPartitonsRDD的主構(gòu)造函數(shù),其又對RDD進行了賦值,其中父RDD就是上面的this對象指定的RDD,我們再看一下RDD這個類的構(gòu)造函數(shù):

其又調(diào)用了RDD的主構(gòu)造函數(shù)

其實依賴都是在RDD的構(gòu)造函數(shù)中形成的。
通過上面的依賴轉(zhuǎn)換就形成了RDD額DAG圖
生成了一個RDD的DAG圖:

spark的job的劃分、stage的劃分
spark的Application劃分job其實挺簡單的,一個Application劃分為幾個job,我們就要看這個Application中有多少個Action算子,一個Action算子對應一個job,這個可以通過源碼來看出來,轉(zhuǎn)換算子是形成一個或者多個RDD,而Action算子是觸發(fā)job的提交。
比如上面的map轉(zhuǎn)換算子就是這樣的

而Action算子是這樣的:

通過runJob方法提交作業(yè)。stage的劃分是根據(jù)是否進行shuflle過程來決定的,這個后面會細說。

spark的DAGScheduler的調(diào)度

當我們通過客戶端,向spark集群提交作業(yè)時,如果利用的資源管理器是yarn,那么客戶端向spark提交申請運行driver進程的機器,driver其實在spark中是沒有具體的類的,driver機器主要是用來運行用戶編寫的代碼的地方,完成DAGScheduler和TaskSchedule,追蹤task運行的狀態(tài)。記住,用戶編寫的主函數(shù)是在driver中運行的,但是RDD轉(zhuǎn)換和執(zhí)行是在不同的機器上完成。其實driver主要負責作業(yè)的調(diào)度和分發(fā)。Action算子到stage的劃分和DAGScheduler的完成過程。
當我們在driver進程中運行用戶定義的main函數(shù)的時候,首先會創(chuàng)建SparkContext對象,這個是我們與spark集群進行交互的入口它會初始化很多運行需要的環(huán)境,最主要的是初始化了DAGScheduler和TaskSchedule。

我們以這樣的的一個RDD的邏輯執(zhí)行圖來分析整個DAGScheduler的過程。

因為DAGScheduler發(fā)生在driver進程中,我們就沖Driver進程運行用戶定義的main函數(shù)開始。在上圖中RDD9是最后一個RDD并且其調(diào)用了Action算子,就會觸發(fā)作業(yè)的提交,其會調(diào)用SparkContext的runjob函數(shù),其經(jīng)過一系列的runJob的封裝,會調(diào)用DAGScheduler的runJob

在SparkContext中存在著runJob方法

----------------------------------------------

def runJob[T, U: ClassTag](
rdd: RDD[T], // rdd為上面提到的RDD邏輯執(zhí)行圖中的RDD9
func: (TaskContext, Iterator[T]) => U,這個方法也是RDD9調(diào)用Action算子傳入的函數(shù)
partitions: Seq[Int],
resultHandler: (Int, U) => Unit): Unit = {
if (stopped.get()) {
throw new IllegalStateException("SparkContext has been shutdown")
}
val callSite = getCallSite
val cleanedFunc = clean(func)
logInfo("Starting job: " + callSite.shortForm)
if (conf.getBoolean("spark.logLineage", false)) {
logInfo("RDD's recursive dependencies:\n" + rdd.toDebugString)
}
dagScheduler.runJob(rdd, cleanedFunc, partitions, callSite, resultHandler, localProperties.get)
progressBar.foreach(_.finishAll())
rdd.doCheckpoint()
}

----------------------------------------------

DAGScheduler的runJob

----------------------------------------------

def runJob[T, U](
rdd: RDD[T], //RDD9
func: (TaskContext, Iterator[T]) => U,
partitions: Seq[Int],
callSite: CallSite,
resultHandler: (Int, U) => Unit,
properties: Properties): Unit = {
val start = System.nanoTime
//在這里會生成一個job的守護進程waiter,用來等待作業(yè)提交執(zhí)行是否完成,其又調(diào)用了submitJob,其以下的代
//碼都是用來處運行結(jié)果的一些log日志信息
val waiter = submitJob(rdd, func, partitions, callSite, resultHandler, properties)
ThreadUtils.awaitReady(waiter.completionFuture, Duration.Inf)
waiter.completionFuture.value.get match {
case scala.util.Success(_) =>
logInfo("Job %d finished: %s, took %f s".format
(waiter.jobId, callSite.shortForm, (System.nanoTime - start) / 1e9))
case scala.util.Failure(exception) =>
logInfo("Job %d failed: %s, took %f s".format
(waiter.jobId, callSite.shortForm, (System.nanoTime - start) / 1e9))
// SPARK-8644: Include user stack trace in exceptions coming from DAGScheduler.
val callerStackTrace = Thread.currentThread().getStackTrace.tail
exception.setStackTrace(exception.getStackTrace ++ callerStackTrace)
throw exception
}
}

----------------------------------------------

submitJob的源代碼

----------------------------------------------

def submitJob[T, U](
rdd: RDD[T],
func: (TaskContext, Iterator[T]) => U,
partitions: Seq[Int],
callSite: CallSite,
resultHandler: (Int, U) => Unit,
properties: Properties): JobWaiter[U] = {
// 檢查RDD的分區(qū)是否合法
val maxPartitions = rdd.partitions.length
partitions.find(p => p >= maxPartitions || p < 0).foreach { p =>
throw new IllegalArgumentException(
"Attempting to access a non-existent partition: " + p + ". " +
"Total number of partitions: " + maxPartitions)
}

val jobId = nextJobId.getAndIncrement()
if (partitions.size == 0) {
// Return immediately if the job is running 0 tasks
return new JobWaiter[U](this, jobId, 0, resultHandler)
}

assert(partitions.size > 0)
//這一塊是把我們的job繼續(xù)進行封裝到JobSubmitted,然后放入到一個進程中池里,spark會啟動一個線程來處理我
//們提交的作業(yè)
val func2 = func.asInstanceOf[(TaskContext, Iterator[]) => ]
val waiter = new JobWaiter(this, jobId, partitions.size, resultHandler)
eventProcessLoop.post(JobSubmitted(
jobId, rdd, func2, partitions.toArray, callSite, waiter,
SerializationUtils.clone(properties)))
waiter
}

----------------------------------------------

在DAGScheduler類中有一個DAGSchedulerEventProcessLoop的類,用來接收處理DAGScheduler的消息事件

JobSubmitted對象,因此會執(zhí)行第一個操作handleJobSubmitted,在這里我們要說一下,Stage的類型,在spark中有兩種類型的stage一種是ShuffleMapStage,和ResultStage,最后一個RDD對應的Stage是ResultStage,遇到Shuffle過程的RDD被稱為ShuffleMapStage。

----------------------------------------------

private[scheduler] def handleJobSubmitted(jobId: Int,
finalRDD: RDD[],//對應RDD9
func: (TaskContext, Iterator[]) => _,
partitions: Array[Int],
callSite: CallSite,
listener: JobListener,
properties: Properties) {
var finalStage: ResultStage = null
try {
// 先創(chuàng)建ResultStage。
finalStage = createResultStage(finalRDD, func, partitions, jobId, callSite)
} catch {
case e: Exception =>
logWarning("Creating new stage failed due to exception - job: " + jobId, e)
listener.jobFailed(e)
return
}

val job = new ActiveJob(jobId, finalStage, callSite, listener, properties)
clearCacheLocs()
logInfo("Got job %s (%s) with %d output partitions".format(
job.jobId, callSite.shortForm, partitions.length))
logInfo("Final stage: " + finalStage + " (" + finalStage.name + ")")
logInfo("Parents of final stage: " + finalStage.parents)
logInfo("Missing parents: " + getMissingParentStages(finalStage))

val jobSubmissionTime = clock.getTimeMillis()
jobIdToActiveJob(jobId) = job
activeJobs += job
finalStage.setActiveJob(job)
val stageIds = jobIdToStageIds(jobId).toArray
val stageInfos = stageIds.flatMap(id => stageIdToStage.get(id).map(_.latestInfo))
listenerBus.post(
SparkListenerJobStart(job.jobId, jobSubmissionTime, stageInfos, properties))
submitStage(finalStage)
}

----------------------------------------------

上面的createResultStage其實就是RDD轉(zhuǎn)換為Stage的過程,方法如下

----------------------------------------------

/*
創(chuàng)建ResultStage的時候,它會調(diào)用相關函數(shù)
*/
private def createResultStage(
rdd: RDD[], //對應上圖的RDD9
func: (TaskContext, Iterator[]) => _,
partitions: Array[Int],
jobId: Int,
callSite: CallSite): ResultStage = {
val parents = getOrCreateParentStages(rdd, jobId)
val id = nextStageId.getAndIncrement()
val stage = new ResultStage(id, rdd, func, partitions, parents, jobId, callSite)
stageIdToStage(id) = stage
updateJobIdStageIdMaps(jobId, stage)
stage
}

/**

  • 形成ResultStage依賴的父Stage
    */
    private def getOrCreateParentStages(rdd: RDD[_], firstJobId: Int): List[Stage] = {
    getShuffleDependencies(rdd).map { shuffleDep =>
    getOrCreateShuffleMapStage(shuffleDep, firstJobId)
    }.toList
    }
    /**
  • 采用的是深度優(yōu)先遍歷找到Action算子的父依賴中的寬依賴
  • 這個是最主要的方法,要看懂這個方法,其實后面的就好理解,最好結(jié)合這例子上面給出的RDD邏輯依賴圖,比*
  • 較容易看出來,根據(jù)上面的RDD邏輯依賴圖,其返回的ShuffleDependency就是RDD2和RDD1,RDD7和RDD6的依
    賴,如果存在A<-B<-C,這兩個都是shuffle依賴,那么對于C其只返回B的shuffle依賴,而不會返回A
    /
    private[scheduler] def getShuffleDependencies(
    rdd: RDD[]): HashSet[ShuffleDependency[, , ]] = {
    //用來存放依賴
    val parents = new HashSet[ShuffleDependency[, , ]]
    //遍歷過的RDD放入這個里面
    val visited = new HashSet[RDD[]]
    //創(chuàng)建一個待遍歷RDD的棧結(jié)構(gòu)
    val waitingForVisit = new ArrayStack[RDD[]]
    //壓入finalRDD,邏輯圖中的RDD9
    waitingForVisit.push(rdd)
    //循環(huán)遍歷這個棧結(jié)構(gòu)
    while (waitingForVisit.nonEmpty) {
    val toVisit = waitingForVisit.pop()
    // 如果RDD沒有被遍歷過執(zhí)行其中的代碼
    if (!visited(toVisit)) {
    //然后把其放入已經(jīng)遍歷隊列中
    visited += toVisit
    //得到依賴,我們知道依賴中存放的有父RDD的對象
    toVisit.dependencies.foreach {
    //如果這個依賴是shuffle依賴,則放入返回隊列中
    case shuffleDep: ShuffleDependency[, , ] =>
    parents += shuffleDep
    case dependency =>
    //如果不是shuffle依賴,把其父RDD壓入待訪問棧中,從而進行循環(huán)
    waitingForVisit.push(dependency.rdd)
    }
    }
    }
    parents
    }
    /創(chuàng)建shuffleMapStage,根據(jù)上面得到的兩個Shuffle對象,分別創(chuàng)建了兩個shuffleMapStage
    /
    /
    def createShuffleMapStage(shuffleDep: ShuffleDependency[, , _], jobId: Int): ShuffleMapStage = {
    //這個RDD其實就是RDD1和RDD6
    val rdd = shuffleDep.rdd
    val numTasks = rdd.partitions.length
    val parents = getOrCreateParentStages(rdd, jobId) //查看這兩個ShuffleMapStage是否存在父Shuffle的Stage
    val id = nextStageId.getAndIncrement()
    //創(chuàng)建ShuffleMapStage,下面是更新一下SparkContext的狀態(tài)
    val stage = new ShuffleMapStage(
    id, rdd, numTasks, parents, jobId, rdd.creationSite, shuffleDep, mapOutputTracker)
    stageIdToStage(id) = stage
    shuffleIdToMapStage(shuffleDep.shuffleId) = stage
    updateJobIdStageIdMaps(jobId, stage)

    if (!mapOutputTracker.containsShuffle(shuffleDep.shuffleId)) {
    // Kind of ugly: need to register RDDs with the cache and map output tracker here
    // since we can't do it in the RDD constructor because # of partitions is unknown
    logInfo("Registering RDD " + rdd.id + " (" + rdd.getCreationSite + ")")
    mapOutputTracker.registerShuffle(shuffleDep.shuffleId, rdd.partitions.length)
    }
    stage
    }

    ----------------------------------------------

    通過上面的源代碼分析,結(jié)合RDD的邏輯執(zhí)行圖,我們可以看出,這個job擁有三個Stage,一個ResultStage,兩個ShuffleMapStage,一個ShuffleMapStage中的RDD是RDD1,另一個stage中的RDD是RDD6,從而,以上完成了RDD到Stage的切分工作。當切分完成后在handleJobSubmitted這個方法的最后,調(diào)用提交stage的方法。

submitStage源代碼比較簡單,它會檢查我們當前的stage依賴的父stage是否已經(jīng)執(zhí)行完成,如果沒有執(zhí)行完成會循環(huán)提交其父stage等待其父stage執(zhí)行完成了,才提交我們當前的stage進行執(zhí)行。

----------------------------------------------

private def submitStage(stage: Stage) {
val jobId = activeJobForStage(stage)
if (jobId.isDefined) {
logDebug("submitStage(" + stage + ")")
if (!waitingStages(stage) && !runningStages(stage) && !failedStages(stage)) {
val missing = getMissingParentStages(stage).sortBy(_.id)
logDebug("missing: " + missing)
if (missing.isEmpty) {
logInfo("Submitting " + stage + " (" + stage.rdd + "), which has no missing parents")
submitMissingTasks(stage, jobId.get)
} else {
for (parent <- missing) {
submitStage(parent)
}
waitingStages += stage
}
}
} else {
abortStage(stage, "No active job for stage " + stage.id, None)
}
}

----------------------------------------------

提交task的方法源代碼,我們按照剛才的三個stage中,提交的是前兩個stage的過程來看待這個源代碼。以包含RDD1的stage為例

----------------------------------------------

private def submitMissingTasks(stage: Stage, jobId: Int) {
logDebug("submitMissingTasks(" + stage + ")")
// Get our pending tasks and remember them in our pendingTasks entry
stage.pendingPartitions.clear()

// 計算需要計算的分區(qū)數(shù) val partitionsToCompute: Seq[Int] = stage.findMissingPartitions()// Use the scheduling pool, job group, description, etc. from an ActiveJob associated // with this Stage val properties = jobIdToActiveJob(jobId).propertiesrunningStages += stage// 封裝stage的一些信息,得到stage到分區(qū)數(shù)的映射關系,即一個stage對應多少個分區(qū)需要計算 stage match {case s: ShuffleMapStage =>outputCommitCoordinator.stageStart(stage = s.id, maxPartitionId = s.numPartitions - 1)case s: ResultStage =>outputCommitCoordinator.stageStart(stage = s.id, maxPartitionId = s.rdd.partitions.length - 1) }

//得到每個分區(qū)對應的具體位置,即分區(qū)的數(shù)據(jù)位于集群的哪臺機器上。
val taskIdToLocations: Map[Int, Seq[TaskLocation]] = try {
stage match {
case s: ShuffleMapStage =>
partitionsToCompute.map { id => (id, getPreferredLocs(stage.rdd, id))}.toMap
case s: ResultStage =>
partitionsToCompute.map { id =>
val p = s.partitions(id)
(id, getPreferredLocs(stage.rdd, p))
}.toMap
}
} catch {
case NonFatal(e) =>
stage.makeNewStageAttempt(partitionsToCompute.size)
listenerBus.post(SparkListenerStageSubmitted(stage.latestInfo, properties))
abortStage(stage, s"Task creation failed: $e\n${Utils.exceptionString(e)}", Some(e))
runningStages -= stage
return
}
// 這個把上面stage要計算的分區(qū)和每個分區(qū)對應的物理位置進行了從新封裝,放在了latestInfo里面
stage.makeNewStageAttempt(partitionsToCompute.size, taskIdToLocations.values.toSeq)
listenerBus.post(SparkListenerStageSubmitted(stage.latestInfo, properties))

//序列化我們剛才得到的信息,以便在driver機器和work機器之間進行傳輸
var taskBinary: Broadcast[Array[Byte]] = null
try {
// For ShuffleMapTask, serialize and broadcast (rdd, shuffleDep).
// For ResultTask, serialize and broadcast (rdd, func).
val taskBinaryBytes: Array[Byte] = stage match {
case stage: ShuffleMapStage =>
JavaUtils.bufferToArray(
closureSerializer.serialize((stage.rdd, stage.shuffleDep): AnyRef))
case stage: ResultStage =>
JavaUtils.bufferToArray(closureSerializer.serialize((stage.rdd, stage.func): AnyRef))
}

taskBinary = sc.broadcast(taskBinaryBytes) } catch {// In the case of a failure during serialization, abort the stage.case e: NotSerializableException =>abortStage(stage, "Task not serializable: " + e.toString, Some(e))runningStages -= stage// Abort executionreturncase NonFatal(e) =>abortStage(stage, s"Task serialization failed: $e\n${Utils.exceptionString(e)}", Some(e))runningStages -= stagereturn }

//封裝stage構(gòu)成taskSet集合,ShuffleMapStage對應的task為ShuffleMapTask,而ResultStage對應的taskSet為ResultTask
val tasks: Seq[Task[_]] = try {
stage match {
case stage: ShuffleMapStage =>
partitionsToCompute.map { id =>
val locs = taskIdToLocations(id)
val part = stage.rdd.partitions(id)
new ShuffleMapTask(stage.id, stage.latestInfo.attemptId,
taskBinary, part, locs, stage.latestInfo.taskMetrics, properties, Option(jobId),
Option(sc.applicationId), sc.applicationAttemptId)
}

case stage: ResultStage =>partitionsToCompute.map { id =>val p: Int = stage.partitions(id)val part = stage.rdd.partitions(p)val locs = taskIdToLocations(id)new ResultTask(stage.id, stage.latestInfo.attemptId,taskBinary, part, locs, id, properties, stage.latestInfo.taskMetrics,Option(jobId), Option(sc.applicationId), sc.applicationAttemptId)} }

} catch {
case NonFatal(e) =>
abortStage(stage, s"Task creation failed: $e\n${Utils.exceptionString(e)}", Some(e))
runningStages -= stage
return
}

//提交task給TaskSchedule
if (tasks.size > 0) {
logInfo("Submitting " + tasks.size + " missing tasks from " + stage + " (" + stage.rdd + ")")
stage.pendingPartitions ++= tasks.map(_.partitionId)
logDebug("New pending partitions: " + stage.pendingPartitions)
taskScheduler.submitTasks(new TaskSet(
tasks.toArray, stage.id, stage.latestInfo.attemptId, jobId, properties))
stage.latestInfo.submissionTime = Some(clock.getTimeMillis())
} else {
// Because we posted SparkListenerStageSubmitted earlier, we should mark
// the stage as completed here in case there are no tasks to run
markStageAsFinished(stage, None)

val debugString = stage match {case stage: ShuffleMapStage =>s"Stage ${stage} is actually done; " +s"(available: ${stage.isAvailable}," +s"available outputs: ${stage.numAvailableOutputs}," +s"partitions: ${stage.numPartitions})"case stage : ResultStage =>s"Stage ${stage} is actually done; (partitions: ${stage.numPartitions})" } logDebug(debugString)submitWaitingChildStages(stage)

}
}

----------------------------------------------

到此,完成了整個DAGScheduler的調(diào)度。

spark的TaskSchedule的調(diào)度

spark的Task的調(diào)度,我們要明白其調(diào)度過程,其根據(jù)不同的資源管理器擁有不同的調(diào)度策略,因此也擁有不同的調(diào)度守護進程,這個守護進程管理著集群的資源信息,spark提供了一個基本的守護進程的類,來完成與driver和executor的交互:CoarseGrainedSchedulerBackend,它應該運行在集群資源管理器上,比如yarn等。他收集了集群work機器的一般資源信息。當我們形成tasks將要進行調(diào)度的時候,driver進程會與其通信,請求資源的分配和調(diào)度,其會把最優(yōu)的work節(jié)點分配給task來執(zhí)行其任務。而TaskScheduleImpl實現(xiàn)了task調(diào)度的過程,采用的調(diào)度算法默認的是FIFO的策略,也可以采用公平調(diào)度策略。

當我們提交task時,其會創(chuàng)建一個管理task的類TaskSetManager,然后把其加入到任務調(diào)度池中。

----------------------------------------------

override def submitTasks(taskSet: TaskSet) {
val tasks = taskSet.tasks
logInfo("Adding task set " + taskSet.id + " with " + tasks.length + " tasks")
this.synchronized {
// 創(chuàng)建taskSetManager,以下為更新一下狀態(tài)
val manager = createTaskSetManager(taskSet, maxTaskFailures)
val stage = taskSet.stageId
val stageTaskSets =
taskSetsByStageIdAndAttempt.getOrElseUpdate(stage, new HashMap[Int, TaskSetManager])
stageTaskSets(taskSet.stageAttemptId) = manager
val conflictingTaskSet = stageTaskSets.exists { case (, ts) =>
ts.taskSet != taskSet && !ts.isZombie
}
if (conflictingTaskSet) {
throw new IllegalStateException(s"more than one active taskSet for stage $stage:" +
s" ${stageTaskSets.toSeq.map{._2.taskSet.id}.mkString(",")}")
}
//把封裝好的taskSet,加入到任務調(diào)度隊列中。
schedulableBuilder.addTaskSetManager(manager, manager.taskSet.properties)

if (!isLocal && !hasReceivedTask) {starvationTimer.scheduleAtFixedRate(new TimerTask() {override def run() {if (!hasLaunchedTask) {logWarning("Initial job has not accepted any resources; " +"check your cluster UI to ensure that workers are registered " +"and have sufficient resources")} else {this.cancel()}}}, STARVATION_TIMEOUT_MS, STARVATION_TIMEOUT_MS) } hasReceivedTask = true

}
//這個地方就是向資源管理器發(fā)出請求,請求任務的調(diào)度
backend.reviveOffers()
}

/*

*這個方法是位于CoarseGrainedSchedulerBackend類中,driver進程會想集群管理器發(fā)送請求資源的請求。
/
override def reviveOffers() {
driverEndpoint.send(ReviveOffers)
}

----------------------------------------------

當其收到這個請求時,其會調(diào)用這樣的方法。

----------------------------------------------

override def receive: PartialFunction[Any, Unit] = {
case StatusUpdate(executorId, taskId, state, data) =>
scheduler.statusUpdate(taskId, state, data.value)
if (TaskState.isFinished(state)) {
executorDataMap.get(executorId) match {
case Some(executorInfo) =>
executorInfo.freeCores += scheduler.CPUS_PER_TASK
makeOffers(executorId)
case None =>
// Ignoring the update since we don't know about the executor.
logWarning(s"Ignored task status update ($taskId state $state) " +
s"from unknown executor with ID $executorId")
}
}
//發(fā)送的請求滿足這個條件
case ReviveOffers =>
makeOffers()

case KillTask(taskId, executorId, interruptThread) =>
executorDataMap.get(executorId) match {
case Some(executorInfo) =>
executorInfo.executorEndpoint.send(KillTask(taskId, executorId, interruptThread))
case None =>
// Ignoring the task kill since the executor is not registered.
logWarning(s"Attempted to kill task $taskId for unknown executor $executorId.")
}
}

/*

*這個方法是搜集集群上現(xiàn)在還在活著的機器的相關信息。并且進行封裝成WorkerOffer類,

  • 然后其會調(diào)用TaskSchedulerImpl中的resourceOffers方法,來進行篩選,篩選出符合請求資源的機器,來執(zhí)行我們當前的任務
    /
    private def makeOffers() {
    // Filter out executors under killing
    val activeExecutors = executorDataMap.filterKeys(executorIsAlive)
    val workOffers = activeExecutors.map { case (id, executorData) =>
    new WorkerOffer(id, executorData.executorHost, executorData.freeCores)
    }.toIndexedSeq
    launchTasks(scheduler.resourceOffers(workOffers))
    }

/*
得到集群中空閑機器的信息后,我們通過此方法來篩選出滿足我們這次任務要求的機器,然后返回TaskDescription類
*這個類封裝了task與excutor的相關信息

  • /
    def resourceOffers(offers: IndexedSeq[WorkerOffer]): Seq[Seq[TaskDescription]] = synchronized {
    // Mark each slave as alive and remember its hostname
    // Also track if new executor is added
    var newExecAvail = false
    //檢查work是否已經(jīng)存在了,把不存在的加入到work調(diào)度池中
    for (o <- offers) {
    if (!hostToExecutors.contains(o.host)) {
    hostToExecutors(o.host) = new HashSet[String]()
    }
    if (!executorIdToRunningTaskIds.contains(o.executorId)) {
    hostToExecutors(o.host) += o.executorId
    executorAdded(o.executorId, o.host)
    executorIdToHost(o.executorId) = o.host
    executorIdToRunningTaskIds(o.executorId) = HashSet[Long]()
    newExecAvail = true
    }
    for (rack <- getRackForHost(o.host)) {
    hostsByRack.getOrElseUpdate(rack, new HashSet[String]()) += o.host
    }
    }
    // 打亂work機器的順序,以免每次分配任務時都在同一個機器上進行。避免某一個work計算壓力太大。
    val shuffledOffers = Random.shuffle(offers)
    //對于每一work,創(chuàng)建一個與其核數(shù)大小相同的數(shù)組,數(shù)組的大小決定了這臺work上可以并行執(zhí)行task的數(shù)目.
    val tasks = shuffledOffers.map(o => new ArrayBufferTaskDescription)
    //取出每臺機器的cpu核數(shù)
    val availableCpus = shuffledOffers.map(o => o.cores).toArray
    //從task任務調(diào)度池中,按照我們的調(diào)度算法,取出需要執(zhí)行的任務
    val sortedTaskSets = rootPool.getSortedTaskSetQueue
    for (taskSet <- sortedTaskSets) {
    logDebug("parentName: %s, name: %s, runningTasks: %s".format(
    taskSet.parent.name, taskSet.name, taskSet.runningTasks))
    if (newExecAvail) {
    taskSet.executorAdded()
    }
    }
    // 下面的這個循環(huán),是用來標記task根據(jù)work的信息來標定數(shù)據(jù)本地化的程度的。當我們在yarn資源管理器,以--driver-mode配置
    //為client時,我們就會在打出來的日志上看出每一臺機器上運行task的數(shù)據(jù)本地化程度。同時還會選擇每個task對應的work機器
    // NOTE: the preferredLocality order: PROCESS_LOCAL, NODE_LOCAL, NO_PREF, RACK_LOCAL, ANY
    for (taskSet <- sortedTaskSets) {
    var launchedAnyTask = false
    var launchedTaskAtCurrentMaxLocality = false
    for (currentMaxLocality <- taskSet.myLocalityLevels) {
    do {
    launchedTaskAtCurrentMaxLocality = resourceOfferSingleTaskSet(
    taskSet, currentMaxLocality, shuffledOffers, availableCpus, tasks)
    launchedAnyTask |= launchedTaskAtCurrentMaxLocality
    } while (launchedTaskAtCurrentMaxLocality)
    }
    if (!launchedAnyTask) {
    taskSet.abortIfCompletelyBlacklisted(hostToExecutors)
    }
    }

    if (tasks.size > 0) {
    hasLaunchedTask = true
    }
    //返回taskDescription對象
    return tasks
    }

/*
task選擇執(zhí)行其任務的work其實是在這個函數(shù)中實現(xiàn)的,從這個可以看出,一臺work上其實是可以運行多個task,主要是看如何
*進行算法調(diào)度

  • /
    private def resourceOfferSingleTaskSet(
    taskSet: TaskSetManager,
    maxLocality: TaskLocality,
    shuffledOffers: Seq[WorkerOffer],
    availableCpus: Array[Int],
    tasks: IndexedSeq[ArrayBuffer[TaskDescription]]) : Boolean = {
    var launchedTask = false
    //循環(huán)所有的機器,找適合此機器的task
    for (i <- 0 until shuffledOffers.size) {
    val execId = shuffledOffers(i).executorId
    val host = shuffledOffers(i).host
    //判斷其剩余的cpu核數(shù)是否滿足我們的最低配置,滿足則為其分配任務,否則不為其分配任務。
    if (availableCpus(i) >= CPUS_PER_TASK) {
    try {
    //這個for中的resourOffer就是來判斷其標記任務數(shù)據(jù)本地化的程度的。task(i)其實是一個數(shù)組,數(shù)組大小和其cpu核心數(shù)大小相同。
    for (task <- taskSet.resourceOffer(execId, host, maxLocality)) {
    tasks(i) += task
    val tid = task.taskId
    taskIdToTaskSetManager(tid) = taskSet
    taskIdToExecutorId(tid) = execId
    executorIdToRunningTaskIds(execId).add(tid)
    availableCpus(i) -= CPUS_PER_TASK
    assert(availableCpus(i) >= 0)
    launchedTask = true
    }
    } catch {
    case e: TaskNotSerializableException =>
    logError(s"Resource offer failed, task set ${taskSet.name} was not serializable")
    // Do not offer resources for this task, but don't throw an error to allow other
    // task sets to be submitted.
    return launchedTask
    }
    }
    }
    return launchedTask
    }

    ----------------------------------------------

    以上完成了從TaskSet到task和work機器的綁定過程的所有任務。下面就是如何發(fā)送task到executor進行執(zhí)行。在makeOffers()方法中調(diào)用了launchTasks方法,這個方法其實就是發(fā)送task作業(yè)到指定的機器上。只此,spark TaskSchedule的調(diào)度就此結(jié)束。

executor如何執(zhí)行task以及我們定義的函數(shù)

當TaskSchedule完成對task的調(diào)度時,task需要在work機器上來進行執(zhí)行。此時,work機器就會啟動一個Backend的守護進程,用來完成與driver和資源管理器的通信。這個Backend就是CoarseGrainedExecutorBackend,啟動的main主函數(shù)為,從main函數(shù)中可以看出,其主要進行參數(shù)的解析,然后運行run方法。

----------------------------------------------

def main(args: Array[String]) {
var driverUrl: String = null
var executorId: String = null
var hostname: String = null
var cores: Int = 0
var appId: String = null
var workerUrl: Option[String] = None
val userClassPath = new mutable.ListBuffer[URL]()
var argv = args.toList
while (!argv.isEmpty) {
argv match {
case ("--driver-url") :: value :: tail =>
driverUrl = value
argv = tail
case ("--executor-id") :: value :: tail =>
executorId = value
argv = tail
case ("--hostname") :: value :: tail =>
hostname = value
argv = tail
case ("--cores") :: value :: tail =>
cores = value.toInt
argv = tail
case ("--app-id") :: value :: tail =>
appId = value
argv = tail
case ("--worker-url") :: value :: tail =>
// Worker url is used in spark standalone mode to enforce fate-sharing with worker
workerUrl = Some(value)
argv = tail
case ("--user-class-path") :: value :: tail =>
userClassPath += new URL(value)
argv = tail
case Nil =>
case tail =>
// scalastyle:off println
System.err.println(s"Unrecognized options: ${tail.mkString(" ")}")
// scalastyle:on println
printUsageAndExit()
}
}
if (driverUrl == null || executorId == null || hostname == null || cores <= 0 ||
appId == null) {
printUsageAndExit()
}
run(driverUrl, executorId, hostname, cores, appId, workerUrl, userClassPath)
System.exit(0)
}
/*
可以看出,run方法只是進行了一些需要運行task所需要的環(huán)境進行配置。并且創(chuàng)建相應的運行環(huán)境。

  • /
    private def run(
    driverUrl: String,
    executorId: String,
    hostname: String,
    cores: Int,
    appId: String,
    workerUrl: Option[String],
    userClassPath: Seq[URL]) {

    Utils.initDaemon(log)

    SparkHadoopUtil.get.runAsSparkUser { () =>
    // Debug code
    Utils.checkHost(hostname)

    // Bootstrap to fetch the driver's Spark properties.
    val executorConf = new SparkConf
    val port = executorConf.getInt("spark.executor.port", 0)
    val fetcher = RpcEnv.create(
    "driverPropsFetcher",
    hostname,
    port,
    executorConf,
    new SecurityManager(executorConf),
    clientMode = true)
    val driver = fetcher.setupEndpointRefByURI(driverUrl)
    val cfg = driver.askWithRetrySparkAppConfig
    val props = cfg.sparkProperties ++ Seq[(String, String)](("spark.app.id", appId))
    fetcher.shutdown()

    // Create SparkEnv using properties we fetched from the driver.
    val driverConf = new SparkConf()
    for ((key, value) <- props) {
    // this is required for SSL in standalone mode
    if (SparkConf.isExecutorStartupConf(key)) {
    driverConf.setIfMissing(key, value)
    } else {
    driverConf.set(key, value)
    }
    }
    if (driverConf.contains("spark.yarn.credentials.file")) {
    logInfo("Will periodically update credentials from: " +
    driverConf.get("spark.yarn.credentials.file"))
    SparkHadoopUtil.get.startCredentialUpdater(driverConf)
    }

    val env = SparkEnv.createExecutorEnv(
    driverConf, executorId, hostname, port, cores, cfg.ioEncryptionKey, isLocal = false)

    env.rpcEnv.setupEndpoint("Executor", new CoarseGrainedExecutorBackend(
    env.rpcEnv, driverUrl, executorId, hostname, cores, userClassPath, env))
    workerUrl.foreach { url =>
    env.rpcEnv.setupEndpoint("WorkerWatcher", new WorkerWatcher(env.rpcEnv, url))
    }
    env.rpcEnv.awaitTermination()
    SparkHadoopUtil.get.stopCredentialUpdater()
    }
    }

    ----------------------------------------------

    其執(zhí)行函數(shù)的調(diào)用過程如下:

我們知道當我們完成TaskSchedule的調(diào)度時,是通過rpc發(fā)送了一個消息,如下圖所示,當work機器的Backend啟動以后,其會與driver進程進行rpc通信,當其收到LaunchTask的消息后,其會執(zhí)行下面的代碼。

我們可以看出此方法存在很多的情況,根據(jù)接收到的不同的消息,執(zhí)行不同的代碼。我們上面執(zhí)行的是LaunchTask的請求。

----------------------------------------------

override def receive: PartialFunction[Any, Unit] = {
case RegisteredExecutor =>
logInfo("Successfully registered with driver")
try {
executor = new Executor(executorId, hostname, env, userClassPath, isLocal = false)
} catch {
case NonFatal(e) =>
exitExecutor(1, "Unable to create executor due to " + e.getMessage, e)
}

case RegisterExecutorFailed(message) =>
exitExecutor(1, "Slave registration failed: " + message)
//提交任務時,執(zhí)行這樣的操作。
case LaunchTask(data) =>
if (executor == null) {
exitExecutor(1, "Received LaunchTask command but executor was null")
} else {
//先反序列化
val taskDesc = ser.deserializeTaskDescription
logInfo("Got assigned task " + taskDesc.taskId)
//然后執(zhí)行l(wèi)aunchTask操作。
executor.launchTask(this, taskId = taskDesc.taskId, attemptNumber = taskDesc.attemptNumber,
taskDesc.name, taskDesc.serializedTask)
}

case KillTask(taskId, _, interruptThread) =>
if (executor == null) {
exitExecutor(1, "Received KillTask command but executor was null")
} else {
executor.killTask(taskId, interruptThread)
}

case StopExecutor =>
stopping.set(true)
logInfo("Driver commanded a shutdown")
// Cannot shutdown here because an ack may need to be sent back to the caller. So send
// a message to self to actually do the shutdown.
self.send(Shutdown)

case Shutdown =>
stopping.set(true)
new Thread("CoarseGrainedExecutorBackend-stop-executor") {
override def run(): Unit = {
// executor.stop() will call SparkEnv.stop() which waits until RpcEnv stops totally.
// However, if executor.stop() runs in some thread of RpcEnv, RpcEnv won't be able to
// stop until executor.stop() returns, which becomes a dead-lock (See SPARK-14180).
// Therefore, we put this line in a new thread.
executor.stop()
}
}.start()
}

----------------------------------------------

Executor的相關源代碼,從源碼中我們可以看出,對于Task,其創(chuàng)建了一個TaskRunner的線程,并且把其放入到執(zhí)行隊列中進行執(zhí)行。

----------------------------------------------

def launchTask(
context: ExecutorBackend,
taskId: Long,
attemptNumber: Int,
taskName: String,
serializedTask: ByteBuffer): Unit = {
val tr = new TaskRunner(context, taskId = taskId, attemptNumber = attemptNumber, taskName,
serializedTask)
runningTasks.put(taskId, tr)
threadPool.execute(tr)
}

----------------------------------------------

從下面可以看出,其定義的就是一個線程,那我們就看一下這個線程的run方法。

----------------------------------------------

override def run(): Unit = {
//初始化線程運行需要的一些環(huán)境
val threadMXBean = ManagementFactory.getThreadMXBean
val taskMemoryManager = new TaskMemoryManager(env.memoryManager, taskId)
val deserializeStartTime = System.currentTimeMillis()
val deserializeStartCpuTime = if (threadMXBean.isCurrentThreadCpuTimeSupported) {
threadMXBean.getCurrentThreadCpuTime
} else 0L
//得到當前進程的類加載器
Thread.currentThread.setContextClassLoader(replClassLoader)
val ser = env.closureSerializer.newInstance()
logInfo(s"Running $taskName (TID $taskId)")
//更新相關的狀態(tài)
execBackend.statusUpdate(taskId, TaskState.RUNNING, EMPTY_BYTE_BUFFER)
var taskStart: Long = 0
var taskStartCpu: Long = 0
startGCTime = computeTotalGcTime()

try {

//反序列化類相關的依賴,得到相關的參數(shù)
val (taskFiles, taskJars, taskProps, taskBytes) =
Task.deserializeWithDependencies(serializedTask)

// Must be set before updateDependencies() is called, in case fetching dependencies// requires access to properties contained within (e.g. for access control).Executor.taskDeserializationProps.set(taskProps)

//更新依賴配置
updateDependencies(taskFiles, taskJars)
task = ser.deserialize[Task[Any]](taskBytes, Thread.currentThread.getContextClassLoader)
task.localProperties = taskProps
task.setTaskMemoryManager(taskMemoryManager)

// If this task has been killed before we deserialized it, let's quit now. Otherwise,// continue executing the task.if (killed) {// Throw an exception rather than returning, because returning within a try{} block// causes a NonLocalReturnControl exception to be thrown. The NonLocalReturnControl// exception will be caught by the catch block, leading to an incorrect ExceptionFailure// for the task.throw new TaskKilledException}logDebug("Task " + taskId + "'s epoch is " + task.epoch)

//追蹤緩存數(shù)據(jù)的位置
env.mapOutputTracker.updateEpoch(task.epoch)

// Run the actual task and measure its runtime.taskStart = System.currentTimeMillis()taskStartCpu = if (threadMXBean.isCurrentThreadCpuTimeSupported) {threadMXBean.getCurrentThreadCpuTime} else 0Lvar threwException = true

//運行任務的run方法來運行task,主要就是下面的task.run方法,它又會調(diào)用runTask方法來真正執(zhí)行task,前面我們提到過,job變
//為stage有兩種,ShuffleMapStage和ResultStage,那么其對應的也有兩個Task:ShuffleMapTask和ResultTask,不同的task類型,執(zhí)行不同的run方法。
val value = try {
val res = task.run(
taskAttemptId = taskId,
attemptNumber = attemptNumber,
metricsSystem = env.metricsSystem)
threwException = false
res
} finally {
//下面就是根據(jù)上面的運行結(jié)果,來進行一些判斷和日志的打出
val releasedLocks = env.blockManager.releaseAllLocksForTask(taskId)
val freedMemory = taskMemoryManager.cleanUpAllAllocatedMemory()

if (freedMemory > 0 && !threwException) {val errMsg = s"Managed memory leak detected; size = $freedMemory bytes, TID = $taskId"if (conf.getBoolean("spark.unsafe.exceptionOnMemoryLeak", false)) {throw new SparkException(errMsg)} else {logWarning(errMsg)}}if (releasedLocks.nonEmpty && !threwException) {val errMsg =s"${releasedLocks.size} block locks were not released by TID = $taskId:\n" +releasedLocks.mkString("[", ", ", "]")if (conf.getBoolean("spark.storage.exceptionOnPinLeak", false)) {throw new SparkException(errMsg)} else {logWarning(errMsg)}}}val taskFinish = System.currentTimeMillis()val taskFinishCpu = if (threadMXBean.isCurrentThreadCpuTimeSupported) {threadMXBean.getCurrentThreadCpuTime} else 0L// If the task has been killed, let's fail it.if (task.killed) {throw new TaskKilledException}val resultSer = env.serializer.newInstance()val beforeSerialization = System.currentTimeMillis()val valueBytes = resultSer.serialize(value)val afterSerialization = System.currentTimeMillis()// Deserialization happens in two parts: first, we deserialize a Task object, which// includes the Partition. Second, Task.run() deserializes the RDD and function to be run.task.metrics.setExecutorDeserializeTime((taskStart - deserializeStartTime) + task.executorDeserializeTime)task.metrics.setExecutorDeserializeCpuTime((taskStartCpu - deserializeStartCpuTime) + task.executorDeserializeCpuTime)// We need to subtract Task.run()'s deserialization time to avoid double-countingtask.metrics.setExecutorRunTime((taskFinish - taskStart) - task.executorDeserializeTime)task.metrics.setExecutorCpuTime((taskFinishCpu - taskStartCpu) - task.executorDeserializeCpuTime)task.metrics.setJvmGCTime(computeTotalGcTime() - startGCTime)task.metrics.setResultSerializationTime(afterSerialization - beforeSerialization)// Note: accumulator updates must be collected after TaskMetrics is updatedval accumUpdates = task.collectAccumulatorUpdates()// TODO: do not serialize value twiceval directResult = new DirectTaskResult(valueBytes, accumUpdates)val serializedDirectResult = ser.serialize(directResult)val resultSize = serializedDirectResult.limit// directSend = sending directly back to the driverval serializedResult: ByteBuffer = {if (maxResultSize > 0 && resultSize > maxResultSize) {logWarning(s"Finished $taskName (TID $taskId). Result is larger than maxResultSize " +s"(${Utils.bytesToString(resultSize)} > ${Utils.bytesToString(maxResultSize)}), " +s"dropping it.")ser.serialize(new IndirectTaskResult[Any](TaskResultBlockId(taskId), resultSize))} else if (resultSize > maxDirectResultSize) {val blockId = TaskResultBlockId(taskId)env.blockManager.putBytes(blockId,new ChunkedByteBuffer(serializedDirectResult.duplicate()),StorageLevel.MEMORY_AND_DISK_SER)logInfo(s"Finished $taskName (TID $taskId). $resultSize bytes result sent via BlockManager)")ser.serialize(new IndirectTaskResult[Any](blockId, resultSize))} else {logInfo(s"Finished $taskName (TID $taskId). $resultSize bytes result sent to driver")serializedDirectResult}}execBackend.statusUpdate(taskId, TaskState.FINISHED, serializedResult)} catch {case ffe: FetchFailedException =>val reason = ffe.toTaskFailedReasonsetTaskFinishedAndClearInterruptStatus()execBackend.statusUpdate(taskId, TaskState.FAILED, ser.serialize(reason))case _: TaskKilledException =>logInfo(s"Executor killed $taskName (TID $taskId)")setTaskFinishedAndClearInterruptStatus()execBackend.statusUpdate(taskId, TaskState.KILLED, ser.serialize(TaskKilled))case _: InterruptedException if task.killed =>logInfo(s"Executor interrupted and killed $taskName (TID $taskId)")setTaskFinishedAndClearInterruptStatus()execBackend.statusUpdate(taskId, TaskState.KILLED, ser.serialize(TaskKilled))case CausedBy(cDE: CommitDeniedException) =>val reason = cDE.toTaskFailedReasonsetTaskFinishedAndClearInterruptStatus()execBackend.statusUpdate(taskId, TaskState.FAILED, ser.serialize(reason))case t: Throwable =>// Attempt to exit cleanly by informing the driver of our failure.// If anything goes wrong (or this was a fatal exception), we will delegate to// the default uncaught exception handler, which will terminate the Executor.logError(s"Exception in $taskName (TID $taskId)", t)// Collect latest accumulator values to report back to the driverval accums: Seq[AccumulatorV2[_, _]] =if (task != null) {task.metrics.setExecutorRunTime(System.currentTimeMillis() - taskStart)task.metrics.setJvmGCTime(computeTotalGcTime() - startGCTime)task.collectAccumulatorUpdates(taskFailed = true)} else {Seq.empty}val accUpdates = accums.map(acc => acc.toInfo(Some(acc.value), None))val serializedTaskEndReason = {try {ser.serialize(new ExceptionFailure(t, accUpdates).withAccums(accums))} catch {case _: NotSerializableException =>// t is not serializable so just send the stacktraceser.serialize(new ExceptionFailure(t, accUpdates, false).withAccums(accums))}}setTaskFinishedAndClearInterruptStatus()execBackend.statusUpdate(taskId, TaskState.FAILED, serializedTaskEndReason)// Don't forcibly exit unless the exception was inherently fatal, to avoid// stopping other tasks unnecessarily.if (Utils.isFatalError(t)) {SparkUncaughtExceptionHandler.uncaughtException(t)}} finally {runningTasks.remove(taskId) }

}
}

----------------------------------------------

前面我們提到過,job變?yōu)閟tage有兩種,ShuffleMapStage和ResultStage,那么其對應的也有兩個Task:ShuffleMapTask和
ResultTask,不同的task類型,執(zhí)行不同的Task.runTask方法。Task.run方法中調(diào)用了runTask的方法,這個方法在上面兩個Task類中都進行了重寫。
ShuffleMapTask的runTask方法

----------------------------------------------

override def runTask(context: TaskContext): MapStatus = {
// Deserialize the RDD using the broadcast variable.
//首先進行一些初始化操作
val threadMXBean = ManagementFactory.getThreadMXBean
val deserializeStartTime = System.currentTimeMillis()
val deserializeStartCpuTime = if (threadMXBean.isCurrentThreadCpuTimeSupported) {
threadMXBean.getCurrentThreadCpuTime
} else 0L
val ser = SparkEnv.get.closureSerializer.newInstance()
//反序列化,這里的rdd,其實是我們進行shuffle之前的最后一個rdd,這個我們在前面已經(jīng)說到的。
val (rdd, dep) = ser.deserialize[(RDD[], ShuffleDependency[, , ])](
ByteBuffer.wrap(taskBinary.value), Thread.currentThread.getContextClassLoader)

_executorDeserializeTime = System.currentTimeMillis() - deserializeStartTime
executorDeserializeCpuTime = if (threadMXBean.isCurrentThreadCpuTimeSupported) {
threadMXBean.getCurrentThreadCpuTime - deserializeStartCpuTime
} else 0L
//下面就是把每一個shuffle之前的stage的最后一個rdd進行寫入操作,但是沒有看到task執(zhí)行我們寫的函數(shù),也沒有看到其調(diào)用compute函數(shù)以及rdd之間的管道執(zhí)行也沒有體現(xiàn)出來,往下看,會揭露這些問題的面紗。
var writer: ShuffleWriter[Any, Any] = null
try {
val manager = SparkEnv.get.shuffleManager
writer = manager.getWriter[Any, Any](dep.shuffleHandle, partitionId, context)
writer.write(rdd.iterator(partition, context).asInstanceOf[Iterator[ <: Product2[Any, Any]]])
writer.stop(success = true).get
} catch {
case e: Exception =>
try {
if (writer != null) {
writer.stop(success = false)
}
} catch {
case e: Exception =>
log.debug("Could not stop writer", e)
}
throw e
}
}

----------------------------------------------

對于上面紅色部分的問題,我們在這里進行詳細的解釋。RDD會根據(jù)依賴關系來形成一個有向無環(huán)圖,通過最后一個RDD和其依賴,我們就可以反向查找其對應的所有父類。如果沒有shuffle過程,那么其就會形成管道,形成管道的好處就是所有RDD的中間結(jié)果不需要進行存儲,直接就把我們的定義的多個函數(shù)串連起來,從輸入到輸出中間結(jié)果不需要存儲,節(jié)省了時間和空間。同時我們也知道RDD的中間結(jié)果可以持久化到內(nèi)存或者硬盤上,spark對于這個是可以追蹤到的。

通過上面的分析,我們可以看出,executor中

正是我們RDD往前回溯的開始。對于shuffle過程和ResultTask的runTask的執(zhí)行過程以后會在慢慢跟進。

轉(zhuǎn)載于:https://blog.51cto.com/9269309/2091219

創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎勵來咯,堅持創(chuàng)作打卡瓜分現(xiàn)金大獎

總結(jié)

以上是生活随笔為你收集整理的spark DAGScheduler、TaskSchedule、Executor执行task源码分析的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

日本一区二区三区免费播放 | 国产sm调教视频在线观看 | 国产真实伦对白全集 | 国产精品亚洲а∨无码播放麻豆 | 精品一二三区久久aaa片 | 四虎国产精品免费久久 | 亚洲码国产精品高潮在线 | 中国大陆精品视频xxxx | 国产97色在线 | 免 | 久久久精品456亚洲影院 | 国产午夜亚洲精品不卡下载 | 国产精品香蕉在线观看 | 无码av最新清无码专区吞精 | 亚洲精品久久久久中文第一幕 | 俄罗斯老熟妇色xxxx | 免费国产黄网站在线观看 | 久久天天躁狠狠躁夜夜免费观看 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 午夜熟女插插xx免费视频 | 成人无码精品一区二区三区 | 欧美xxxxx精品 | 国产人妻久久精品二区三区老狼 | 永久免费观看国产裸体美女 | 我要看www免费看插插视频 | 永久免费观看美女裸体的网站 | 久久久国产一区二区三区 | 18黄暴禁片在线观看 | 国产成人av免费观看 | 我要看www免费看插插视频 | 精品无人区无码乱码毛片国产 | 中文字幕日韩精品一区二区三区 | 丰满岳乱妇在线观看中字无码 | 国产艳妇av在线观看果冻传媒 | 精品久久综合1区2区3区激情 | 国产精品二区一区二区aⅴ污介绍 | 国产人妻精品一区二区三区不卡 | 一区二区传媒有限公司 | 亚洲国产一区二区三区在线观看 | 国产猛烈高潮尖叫视频免费 | 麻豆国产丝袜白领秘书在线观看 | 俺去俺来也在线www色官网 | 欧美成人高清在线播放 | 亚洲精品久久久久avwww潮水 | 人人澡人摸人人添 | 在线精品亚洲一区二区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产精品18久久久久久麻辣 | 欧美午夜特黄aaaaaa片 | 国产亚洲视频中文字幕97精品 | 久久人人爽人人爽人人片av高清 | 少妇的肉体aa片免费 | аⅴ资源天堂资源库在线 | 少妇激情av一区二区 | 成年美女黄网站色大免费全看 | 精品久久8x国产免费观看 | 久久久久亚洲精品中文字幕 | 久久精品国产99久久6动漫 | 又粗又大又硬毛片免费看 | 精品一二三区久久aaa片 | 精品一二三区久久aaa片 | 一区二区传媒有限公司 | 久久久久亚洲精品男人的天堂 | 亚洲gv猛男gv无码男同 | 久久天天躁狠狠躁夜夜免费观看 | 国产在线一区二区三区四区五区 | 美女扒开屁股让男人桶 | 97久久精品无码一区二区 | 亚洲精品一区二区三区大桥未久 | 好男人www社区 | 亚洲国产午夜精品理论片 | 香蕉久久久久久av成人 | 搡女人真爽免费视频大全 | 亚洲精品成人福利网站 | 日本护士毛茸茸高潮 | 中文亚洲成a人片在线观看 | 亚洲日韩一区二区 | 欧美国产亚洲日韩在线二区 | 日本熟妇大屁股人妻 | 无码av岛国片在线播放 | 377p欧洲日本亚洲大胆 | 国产无套内射久久久国产 | 一本久道高清无码视频 | 乱中年女人伦av三区 | 丝袜 中出 制服 人妻 美腿 | 中文字幕无码人妻少妇免费 | 免费乱码人妻系列无码专区 | 亚洲日本一区二区三区在线 | 日本一区二区三区免费高清 | 亚洲综合久久一区二区 | 天堂一区人妻无码 | 精品国产麻豆免费人成网站 | 国产色在线 | 国产 | 亚洲熟妇自偷自拍另类 | 夜夜躁日日躁狠狠久久av | 自拍偷自拍亚洲精品10p | 国产绳艺sm调教室论坛 | 亚洲 欧美 激情 小说 另类 | 国产又爽又黄又刺激的视频 | 亚洲一区二区三区播放 | 国产亚洲精品久久久久久久 | 亚洲va欧美va天堂v国产综合 | 日韩亚洲欧美精品综合 | 精品一区二区三区波多野结衣 | 中文字幕无码热在线视频 | 中文字幕人妻无码一夲道 | 国产麻豆精品一区二区三区v视界 | 2019午夜福利不卡片在线 | 日韩人妻少妇一区二区三区 | 欧美成人午夜精品久久久 | 76少妇精品导航 | 色偷偷人人澡人人爽人人模 | 国产sm调教视频在线观看 | 兔费看少妇性l交大片免费 | 在线а√天堂中文官网 | 国产人妻精品一区二区三区 | 亚洲成av人综合在线观看 | 夜精品a片一区二区三区无码白浆 | 欧美放荡的少妇 | a在线观看免费网站大全 | 日本又色又爽又黄的a片18禁 | 国产成人无码a区在线观看视频app | 欧美性猛交xxxx富婆 | 亚洲色在线无码国产精品不卡 | 免费无码午夜福利片69 | 日日麻批免费40分钟无码 | 波多野结衣乳巨码无在线观看 | 亚洲色偷偷偷综合网 | 在线成人www免费观看视频 | 亚洲国产精品久久久久久 | 夜先锋av资源网站 | 黑人巨大精品欧美黑寡妇 | 波多野结衣aⅴ在线 | 久久国产劲爆∧v内射 | 国产成人精品无码播放 | 波多野结衣av一区二区全免费观看 | 狠狠亚洲超碰狼人久久 | 国产精品丝袜黑色高跟鞋 | 久久精品成人欧美大片 | 人人超人人超碰超国产 | 九九在线中文字幕无码 | 欧美人与禽zoz0性伦交 | 日本www一道久久久免费榴莲 | 我要看www免费看插插视频 | 日本丰满护士爆乳xxxx | 亚洲精品一区二区三区在线 | 欧美xxxxx精品 | 人妻熟女一区 | 日韩欧美群交p片內射中文 | 久久久久久久人妻无码中文字幕爆 | 国产9 9在线 | 中文 | 人妻熟女一区 | 少妇无码av无码专区在线观看 | 激情内射日本一区二区三区 | 日韩av激情在线观看 | 撕开奶罩揉吮奶头视频 | 人人妻人人澡人人爽欧美精品 | 一二三四社区在线中文视频 | 永久免费观看美女裸体的网站 | 免费观看又污又黄的网站 | 六十路熟妇乱子伦 | 2020最新国产自产精品 | 未满成年国产在线观看 | 无码成人精品区在线观看 | 国产凸凹视频一区二区 | 两性色午夜免费视频 | 麻豆成人精品国产免费 | 成人试看120秒体验区 | 国产精品无码一区二区三区不卡 | 国产成人无码区免费内射一片色欲 | 男女下面进入的视频免费午夜 | 人妻少妇精品无码专区动漫 | 麻豆蜜桃av蜜臀av色欲av | 国产精品久久久久久久9999 | 国产午夜无码视频在线观看 | 成熟女人特级毛片www免费 | 欧美日本精品一区二区三区 | 国产成人久久精品流白浆 | 精品国产一区二区三区av 性色 | 国产国产精品人在线视 | 国产无套内射久久久国产 | 亚洲欧洲日本综合aⅴ在线 | 夜夜躁日日躁狠狠久久av | 亚洲s码欧洲m码国产av | 亚洲男人av香蕉爽爽爽爽 | 国产精品免费大片 | 久久久婷婷五月亚洲97号色 | 中文亚洲成a人片在线观看 | 久精品国产欧美亚洲色aⅴ大片 | 久久综合九色综合欧美狠狠 | 精品一二三区久久aaa片 | 亚洲熟妇色xxxxx欧美老妇 | 少妇性俱乐部纵欲狂欢电影 | 国产凸凹视频一区二区 | 亚洲国产精品一区二区美利坚 | 国产精品福利视频导航 | a在线亚洲男人的天堂 | 久久久精品人妻久久影视 | 丰满岳乱妇在线观看中字无码 | 成人片黄网站色大片免费观看 | 日日躁夜夜躁狠狠躁 | 国产人妻人伦精品1国产丝袜 | 少妇无码吹潮 | 无码成人精品区在线观看 | 成人综合网亚洲伊人 | 国产内射爽爽大片视频社区在线 | 国产亚洲人成在线播放 | 一本色道久久综合狠狠躁 | 波多野结衣aⅴ在线 | 亚洲自偷自拍另类第1页 | 亚洲色在线无码国产精品不卡 | 国产高清av在线播放 | 亚洲国产精品毛片av不卡在线 | 国内精品久久毛片一区二区 | 精品一区二区三区波多野结衣 | 无遮挡啪啪摇乳动态图 | 无码帝国www无码专区色综合 | 国产精品无码一区二区桃花视频 | 国产精品爱久久久久久久 | 国产又爽又黄又刺激的视频 | 中文字幕无码人妻少妇免费 | 黑人巨大精品欧美一区二区 | 中文精品无码中文字幕无码专区 | 天天爽夜夜爽夜夜爽 | 久久久久人妻一区精品色欧美 | 爆乳一区二区三区无码 | 久久99精品国产麻豆 | 国产精品办公室沙发 | 国产精品久久久久7777 | 日本大乳高潮视频在线观看 | 99久久人妻精品免费二区 | 好男人www社区 | 少妇邻居内射在线 | www国产亚洲精品久久久日本 | 精品无人国产偷自产在线 | 亚洲s色大片在线观看 | 国产成人亚洲综合无码 | 日本爽爽爽爽爽爽在线观看免 | 中文字幕av伊人av无码av | 色综合久久久久综合一本到桃花网 | 久久人妻内射无码一区三区 | 色爱情人网站 | 精品人妻中文字幕有码在线 | 国产黑色丝袜在线播放 | 午夜精品久久久久久久 | 国产香蕉尹人综合在线观看 | 免费观看又污又黄的网站 | 日本乱偷人妻中文字幕 | 国产精品久久久久久久影院 | 成人aaa片一区国产精品 | 无码吃奶揉捏奶头高潮视频 | 成人性做爰aaa片免费看 | 国产精品手机免费 | 国内精品人妻无码久久久影院蜜桃 | 亚洲日韩av一区二区三区四区 | 亚洲欧美日韩国产精品一区二区 | 无码人妻精品一区二区三区下载 | 国产无遮挡又黄又爽免费视频 | 老太婆性杂交欧美肥老太 | 少妇高潮一区二区三区99 | 亚洲aⅴ无码成人网站国产app | 日日天干夜夜狠狠爱 | 国内精品久久久久久中文字幕 | 欧美黑人乱大交 | 亚洲熟妇色xxxxx欧美老妇y | 在线亚洲高清揄拍自拍一品区 | 老司机亚洲精品影院无码 | av无码久久久久不卡免费网站 | 国产又爽又猛又粗的视频a片 | 国产精品久久久久无码av色戒 | а天堂中文在线官网 | 欧美丰满熟妇xxxx性ppx人交 | 久久久久国色av免费观看性色 | 狠狠色噜噜狠狠狠狠7777米奇 | 国产精品第一区揄拍无码 | 国产suv精品一区二区五 | 精品水蜜桃久久久久久久 | 国产乱人无码伦av在线a | 国产xxx69麻豆国语对白 | 男人和女人高潮免费网站 | 国产一精品一av一免费 | 久久天天躁夜夜躁狠狠 | www国产亚洲精品久久久日本 | 奇米影视888欧美在线观看 | 奇米影视7777久久精品人人爽 | 午夜肉伦伦影院 | 久久无码中文字幕免费影院蜜桃 | 人妻少妇精品久久 | 一本久久a久久精品vr综合 | 激情国产av做激情国产爱 | 亚洲无人区一区二区三区 | 国产综合色产在线精品 | 无码播放一区二区三区 | 2020最新国产自产精品 | 一二三四在线观看免费视频 | 久久无码专区国产精品s | 国产偷国产偷精品高清尤物 | 少妇人妻av毛片在线看 | 亚洲色欲色欲天天天www | 九九久久精品国产免费看小说 | 巨爆乳无码视频在线观看 | 久久久精品国产sm最大网站 | 四虎永久在线精品免费网址 | 久久久国产一区二区三区 | 午夜福利一区二区三区在线观看 | 天堂无码人妻精品一区二区三区 | 亚洲中文字幕久久无码 | 亚洲成av人片在线观看无码不卡 | 在线а√天堂中文官网 | 精品久久久无码人妻字幂 | 成人片黄网站色大片免费观看 | 男人扒开女人内裤强吻桶进去 | 亚洲一区二区三区播放 | 国产精品美女久久久网av | 国产精品视频免费播放 | 午夜精品久久久久久久久 | 成人亚洲精品久久久久软件 | 精品久久久无码中文字幕 | 亚洲欧美中文字幕5发布 | 国产内射爽爽大片视频社区在线 | 人妻aⅴ无码一区二区三区 | 宝宝好涨水快流出来免费视频 | 中文字幕无线码免费人妻 | 亚洲精品国产品国语在线观看 | 大地资源网第二页免费观看 | 久久久久99精品国产片 | 牲欲强的熟妇农村老妇女视频 | 成人女人看片免费视频放人 | 欧美日韩久久久精品a片 | 中文字幕av无码一区二区三区电影 | 无码午夜成人1000部免费视频 | 亚洲欧洲日本无在线码 | 国内丰满熟女出轨videos | 色噜噜亚洲男人的天堂 | 久久精品中文字幕一区 | 97夜夜澡人人双人人人喊 | 最新国产乱人伦偷精品免费网站 | 中文字幕久久久久人妻 | 最新国产乱人伦偷精品免费网站 | 久久国产精品偷任你爽任你 | 黑人巨大精品欧美一区二区 | 久久久久久av无码免费看大片 | 色一情一乱一伦 | 久久久精品欧美一区二区免费 | 国产内射爽爽大片视频社区在线 | 国产特级毛片aaaaaa高潮流水 | 国产精品久久久久9999小说 | 熟妇人妻中文av无码 | 日本一卡二卡不卡视频查询 | 国产成人精品一区二区在线小狼 | 久久99精品久久久久久动态图 | 日韩欧美成人免费观看 | 亚洲第一无码av无码专区 | 美女黄网站人色视频免费国产 | 欧美日韩色另类综合 | 东北女人啪啪对白 | 美女极度色诱视频国产 | 色 综合 欧美 亚洲 国产 | 小泽玛莉亚一区二区视频在线 | 无码一区二区三区在线 | 国产黄在线观看免费观看不卡 | 欧美激情一区二区三区成人 | 欧美人与牲动交xxxx | 国产免费久久久久久无码 | 亚洲人成网站在线播放942 | 色情久久久av熟女人妻网站 | 国产精品自产拍在线观看 | 一个人看的视频www在线 | 成人精品视频一区二区三区尤物 | 国产精品久久福利网站 | 天天躁日日躁狠狠躁免费麻豆 | 丰满少妇高潮惨叫视频 | 玩弄人妻少妇500系列视频 | 女高中生第一次破苞av | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产办公室秘书无码精品99 | 久9re热视频这里只有精品 | 久久国产精品偷任你爽任你 | 女人被爽到呻吟gif动态图视看 | 亚洲中文无码av永久不收费 | 欧美喷潮久久久xxxxx | 在线播放无码字幕亚洲 | 国产尤物精品视频 | 欧美性猛交内射兽交老熟妇 | 玩弄人妻少妇500系列视频 | 日本成熟视频免费视频 | 国产成人无码av在线影院 | 啦啦啦www在线观看免费视频 | 内射后入在线观看一区 | 人人妻人人澡人人爽欧美一区九九 | 荫蒂被男人添的好舒服爽免费视频 | 国内少妇偷人精品视频免费 | 红桃av一区二区三区在线无码av | 国产女主播喷水视频在线观看 | 少妇愉情理伦片bd | 亚洲精品久久久久久久久久久 | 福利一区二区三区视频在线观看 | 国产精品人人妻人人爽 | 欧美日韩一区二区三区自拍 | 在线看片无码永久免费视频 | 久久国产自偷自偷免费一区调 | 日本免费一区二区三区最新 | 国产精品久久久久7777 | 亚洲区欧美区综合区自拍区 | 国内精品久久毛片一区二区 | 奇米影视7777久久精品 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 性欧美牲交xxxxx视频 | 无码人妻av免费一区二区三区 | 欧美性色19p | 欧美日韩一区二区综合 | 久久国产劲爆∧v内射 | 日本一区二区更新不卡 | 成人综合网亚洲伊人 | 少妇的肉体aa片免费 | 99久久精品无码一区二区毛片 | 男女猛烈xx00免费视频试看 | 免费观看的无遮挡av | 99久久精品国产一区二区蜜芽 | 又大又紧又粉嫩18p少妇 | 乱人伦人妻中文字幕无码久久网 | 成人aaa片一区国产精品 | 日韩成人一区二区三区在线观看 | 国产亚洲欧美在线专区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产日产欧产精品精品app | 国产精品人人爽人人做我的可爱 | 性生交大片免费看女人按摩摩 | 性生交大片免费看l | 国产精品久久久久9999小说 | 国产精品亚洲五月天高清 | 亚洲精品国产精品乱码不卡 | 国产av人人夜夜澡人人爽麻豆 | 无码纯肉视频在线观看 | 日产精品高潮呻吟av久久 | 欧美精品国产综合久久 | 欧美 日韩 亚洲 在线 | 中文无码伦av中文字幕 | 狠狠色噜噜狠狠狠狠7777米奇 | 色婷婷久久一区二区三区麻豆 | 欧美一区二区三区视频在线观看 | 亚洲精品一区二区三区在线观看 | 特大黑人娇小亚洲女 | 国产精品自产拍在线观看 | 中文毛片无遮挡高清免费 | 大色综合色综合网站 | 亚洲gv猛男gv无码男同 | 噜噜噜亚洲色成人网站 | 精品国产一区二区三区av 性色 | 丰满人妻精品国产99aⅴ | 内射巨臀欧美在线视频 | 婷婷五月综合缴情在线视频 | 国产超级va在线观看视频 | 性色欲网站人妻丰满中文久久不卡 | 人妻少妇被猛烈进入中文字幕 | 国产办公室秘书无码精品99 | 亚洲精品成a人在线观看 | 伊在人天堂亚洲香蕉精品区 | 性欧美牲交xxxxx视频 | 国产精品国产三级国产专播 | 最新版天堂资源中文官网 | 国产精品久久久久久久影院 | 亚洲精品久久久久久久久久久 | 天下第一社区视频www日本 | 老子影院午夜精品无码 | 久久99精品久久久久婷婷 | 啦啦啦www在线观看免费视频 | 人人妻人人澡人人爽人人精品浪潮 | 成 人 免费观看网站 | 性欧美videos高清精品 | 欧美阿v高清资源不卡在线播放 | 中文字幕日韩精品一区二区三区 | 玩弄少妇高潮ⅹxxxyw | 中文无码成人免费视频在线观看 | 性欧美牲交xxxxx视频 | 国产精品二区一区二区aⅴ污介绍 | 中文精品无码中文字幕无码专区 | 性色av无码免费一区二区三区 | 久久精品人人做人人综合试看 | 国产精品免费大片 | 午夜性刺激在线视频免费 | 国产成人无码专区 | 中文精品无码中文字幕无码专区 | 国产suv精品一区二区五 | 日本爽爽爽爽爽爽在线观看免 | 熟女少妇人妻中文字幕 | 欧美熟妇另类久久久久久多毛 | 国产午夜无码精品免费看 | 国产午夜亚洲精品不卡下载 | 日韩av无码一区二区三区 | 久久久久成人片免费观看蜜芽 | 国内丰满熟女出轨videos | 蜜桃臀无码内射一区二区三区 | 亚洲日韩精品欧美一区二区 | 国产免费无码一区二区视频 | 久久精品国产99久久6动漫 | 97夜夜澡人人双人人人喊 | 亚洲s色大片在线观看 | 无套内谢的新婚少妇国语播放 | 中文字幕无码人妻少妇免费 | 青青青爽视频在线观看 | 精品国精品国产自在久国产87 | 国产成人无码av在线影院 | а天堂中文在线官网 | 久久亚洲国产成人精品性色 | 亚洲精品国产a久久久久久 | 国产精品久久久久久久9999 | 亚洲国产精品无码久久久久高潮 | 亚洲色成人中文字幕网站 | 成人无码精品一区二区三区 | 丰满人妻翻云覆雨呻吟视频 | 免费看男女做好爽好硬视频 | 久久久久久av无码免费看大片 | 中文无码成人免费视频在线观看 | 精品久久综合1区2区3区激情 | 撕开奶罩揉吮奶头视频 | 国产三级久久久精品麻豆三级 | av在线亚洲欧洲日产一区二区 | 亚洲精品中文字幕久久久久 | 国产成人无码av片在线观看不卡 | 中文字幕av无码一区二区三区电影 | 久久精品国产精品国产精品污 | 国产精品亚洲а∨无码播放麻豆 | 精品欧洲av无码一区二区三区 | 沈阳熟女露脸对白视频 | 在线视频网站www色 | 狠狠色色综合网站 | 性色av无码免费一区二区三区 | 99久久亚洲精品无码毛片 | 好屌草这里只有精品 | 日韩欧美中文字幕在线三区 | 色综合久久中文娱乐网 | 麻花豆传媒剧国产免费mv在线 | 日本va欧美va欧美va精品 | 日韩精品久久久肉伦网站 | 十八禁真人啪啪免费网站 | 无码精品人妻一区二区三区av | 人人妻人人澡人人爽人人精品浪潮 | 久久人人97超碰a片精品 | 我要看www免费看插插视频 | 亚洲日韩一区二区三区 | a在线亚洲男人的天堂 | 欧美日韩视频无码一区二区三 | 又黄又爽又色的视频 | 欧美国产日产一区二区 | 色偷偷人人澡人人爽人人模 | 亚洲中文字幕va福利 | 爆乳一区二区三区无码 | 免费乱码人妻系列无码专区 | 婷婷五月综合缴情在线视频 | 草草网站影院白丝内射 | 成人女人看片免费视频放人 | 日本丰满护士爆乳xxxx | 亚洲人成人无码网www国产 | 人人妻人人澡人人爽精品欧美 | 国产精品无码mv在线观看 | 成人免费视频在线观看 | 精品国产国产综合精品 | 任你躁国产自任一区二区三区 | 久久精品一区二区三区四区 | 牲欲强的熟妇农村老妇女 | 丝袜美腿亚洲一区二区 | 国产亚洲精品久久久ai换 | 亚洲中文字幕无码中字 | 色妞www精品免费视频 | 国产超碰人人爽人人做人人添 | 偷窥日本少妇撒尿chinese | 清纯唯美经典一区二区 | 少妇久久久久久人妻无码 | 日本精品人妻无码免费大全 | 夜先锋av资源网站 | 国产在线aaa片一区二区99 | 人妻少妇精品无码专区动漫 | 伊人久久大香线蕉av一区二区 | 老太婆性杂交欧美肥老太 | 熟女少妇在线视频播放 | 国产精品久久久久久亚洲毛片 | av无码电影一区二区三区 | 欧美日韩精品 | 国产精品久久久午夜夜伦鲁鲁 | 夜夜夜高潮夜夜爽夜夜爰爰 | 内射后入在线观看一区 | 精品无码成人片一区二区98 | 亚洲毛片av日韩av无码 | 4hu四虎永久在线观看 | 久久久精品欧美一区二区免费 | 99在线 | 亚洲 | 午夜福利一区二区三区在线观看 | 天天躁日日躁狠狠躁免费麻豆 | 国产极品视觉盛宴 | 中文字幕日韩精品一区二区三区 | 国产亚洲美女精品久久久2020 | a在线亚洲男人的天堂 | 最新国产麻豆aⅴ精品无码 | 日本熟妇人妻xxxxx人hd | 十八禁真人啪啪免费网站 | 正在播放老肥熟妇露脸 | 欧美精品无码一区二区三区 | 欧美日本精品一区二区三区 | 日本一区二区三区免费播放 | 久久午夜无码鲁丝片午夜精品 | 无码人妻丰满熟妇区五十路百度 | 国产人成高清在线视频99最全资源 | 99久久久无码国产精品免费 | 日韩av激情在线观看 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲午夜久久久影院 | 纯爱无遮挡h肉动漫在线播放 | 又大又硬又黄的免费视频 | 国产精品欧美成人 | 中文字幕无码日韩欧毛 | 一个人免费观看的www视频 | 精品国产精品久久一区免费式 | 丰满妇女强制高潮18xxxx | 曰本女人与公拘交酡免费视频 | 娇妻被黑人粗大高潮白浆 | 久久精品女人天堂av免费观看 | 一本久道久久综合婷婷五月 | 日本www一道久久久免费榴莲 | 特黄特色大片免费播放器图片 | 红桃av一区二区三区在线无码av | 日本一区二区三区免费高清 | 日韩人妻无码一区二区三区久久99 | 99久久99久久免费精品蜜桃 | 少妇高潮喷潮久久久影院 | 国产精品毛多多水多 | 波多野结衣一区二区三区av免费 | 少妇性俱乐部纵欲狂欢电影 | 强伦人妻一区二区三区视频18 | 国产成人无码午夜视频在线观看 | 中文字幕无码免费久久9一区9 | 精品日本一区二区三区在线观看 | 日本精品人妻无码免费大全 | 久久久久成人精品免费播放动漫 | 欧美日韩在线亚洲综合国产人 | 久久无码中文字幕免费影院蜜桃 | 精品久久8x国产免费观看 | 日本又色又爽又黄的a片18禁 | 亚洲精品午夜无码电影网 | 自拍偷自拍亚洲精品被多人伦好爽 | 97久久国产亚洲精品超碰热 | 欧美一区二区三区 | 人妻无码αv中文字幕久久琪琪布 | 欧美日韩一区二区免费视频 | 亚洲人成人无码网www国产 | 成人试看120秒体验区 | 久久午夜无码鲁丝片 | 国产无遮挡吃胸膜奶免费看 | 日日鲁鲁鲁夜夜爽爽狠狠 | av在线亚洲欧洲日产一区二区 | 性欧美疯狂xxxxbbbb | 日产精品99久久久久久 | 欧美丰满熟妇xxxx | 福利一区二区三区视频在线观看 | 少妇被粗大的猛进出69影院 | 国产精品久久久久久无码 | 女人被男人躁得好爽免费视频 | 激情内射亚州一区二区三区爱妻 | 亚洲人成无码网www | 人人爽人人澡人人高潮 | 色综合久久久无码网中文 | 国产 精品 自在自线 | 欧美午夜特黄aaaaaa片 | 久久精品99久久香蕉国产色戒 | 国产av剧情md精品麻豆 | 精品乱子伦一区二区三区 | 国产精品va在线播放 | 九一九色国产 | 国产另类ts人妖一区二区 | 国产黑色丝袜在线播放 | 日本丰满熟妇videos | 中文字幕无线码免费人妻 | 色欲av亚洲一区无码少妇 | 精品国产乱码久久久久乱码 | 国产激情无码一区二区app | 亚洲精品久久久久久久久久久 | 国产精品无码久久av | 亚洲狠狠色丁香婷婷综合 | 亚洲gv猛男gv无码男同 | 国产精品久久国产三级国 | 亚洲欧洲无卡二区视頻 | 天海翼激烈高潮到腰振不止 | 天天躁日日躁狠狠躁免费麻豆 | 免费观看黄网站 | 少妇太爽了在线观看 | 麻豆人妻少妇精品无码专区 | 性生交大片免费看l | 狠狠色噜噜狠狠狠狠7777米奇 | 夜夜影院未满十八勿进 | 亚洲爆乳精品无码一区二区三区 | 日本一区二区更新不卡 | 领导边摸边吃奶边做爽在线观看 | 亚洲 高清 成人 动漫 | 免费无码肉片在线观看 | 久久国产自偷自偷免费一区调 | 亚洲精品成人av在线 | 欧美激情综合亚洲一二区 | 久久久久久亚洲精品a片成人 | av人摸人人人澡人人超碰下载 | 国产免费久久久久久无码 | 国产av无码专区亚洲awww | 亚洲人成网站在线播放942 | 日本精品高清一区二区 | 网友自拍区视频精品 | 国产亚洲精品久久久ai换 | 人人妻人人澡人人爽欧美一区 | 久久亚洲精品中文字幕无男同 | 18无码粉嫩小泬无套在线观看 | 亚洲aⅴ无码成人网站国产app | 偷窥村妇洗澡毛毛多 | 国产无遮挡又黄又爽又色 | 免费无码肉片在线观看 | 色老头在线一区二区三区 | 精品人妻人人做人人爽夜夜爽 | 99久久精品无码一区二区毛片 | 日韩欧美中文字幕公布 | 久久99精品久久久久久动态图 | 性啪啪chinese东北女人 | 国产精品国产三级国产专播 | 国产亚洲欧美日韩亚洲中文色 | 99久久人妻精品免费一区 | 亚洲午夜久久久影院 | 免费观看的无遮挡av | 中文字幕日产无线码一区 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲色偷偷男人的天堂 | 性啪啪chinese东北女人 | 三上悠亚人妻中文字幕在线 | 99er热精品视频 | 日日干夜夜干 | 奇米影视7777久久精品 | 国产极品美女高潮无套在线观看 | 国产精品香蕉在线观看 | 国产女主播喷水视频在线观看 | 两性色午夜免费视频 | 51国偷自产一区二区三区 | 亚洲乱码国产乱码精品精 | 麻豆国产丝袜白领秘书在线观看 | 国产乡下妇女做爰 | 欧美成人午夜精品久久久 | 少妇性俱乐部纵欲狂欢电影 | 免费人成网站视频在线观看 | 成熟人妻av无码专区 | 综合人妻久久一区二区精品 | 两性色午夜免费视频 | 国产女主播喷水视频在线观看 | 免费人成在线观看网站 | 精品无码一区二区三区的天堂 | 乱人伦人妻中文字幕无码久久网 | 国产成人精品一区二区在线小狼 | 一本久久伊人热热精品中文字幕 | 欧洲欧美人成视频在线 | 国产办公室秘书无码精品99 | 国产亚洲精品精品国产亚洲综合 | 精品一区二区三区无码免费视频 | 日本一区二区更新不卡 | 高清无码午夜福利视频 | 日本肉体xxxx裸交 | 天天躁夜夜躁狠狠是什么心态 | 日本一本二本三区免费 | 中文字幕人妻无码一区二区三区 | 一区二区三区乱码在线 | 欧洲 | 国产国语老龄妇女a片 | 精品一区二区不卡无码av | 少妇高潮喷潮久久久影院 | 亚洲 高清 成人 动漫 | 一个人看的www免费视频在线观看 | 久久久久99精品成人片 | 麻豆蜜桃av蜜臀av色欲av | 天堂久久天堂av色综合 | 国产人妻人伦精品1国产丝袜 | 国产一区二区不卡老阿姨 | 国产精品久久精品三级 | 国产成人无码av在线影院 | 久久亚洲精品成人无码 | 色综合天天综合狠狠爱 | 成人aaa片一区国产精品 | 亚洲国产av美女网站 | 亚洲 高清 成人 动漫 | 精品国产一区二区三区四区 | 人人妻人人澡人人爽人人精品浪潮 | 国产成人精品无码播放 | 无码播放一区二区三区 | 亚洲精品综合一区二区三区在线 | 久久久久国色av免费观看性色 | 国产真实夫妇视频 | 久久久国产精品无码免费专区 | 久久精品国产一区二区三区肥胖 | 成 人影片 免费观看 | 中文字幕无码免费久久99 | 国产一区二区三区精品视频 | 老子影院午夜伦不卡 | 131美女爱做视频 | 久久久久久av无码免费看大片 | 成在人线av无码免费 | 久久国产精品二国产精品 | 亚洲国产欧美国产综合一区 | 国产亚洲欧美日韩亚洲中文色 | 日本熟妇乱子伦xxxx | 亚洲一区二区观看播放 | 久久久精品成人免费观看 | 免费观看又污又黄的网站 | 成人免费视频视频在线观看 免费 | 三上悠亚人妻中文字幕在线 | 99久久婷婷国产综合精品青草免费 | 午夜福利试看120秒体验区 | 天天综合网天天综合色 | 两性色午夜视频免费播放 | 人人超人人超碰超国产 | 精品无人国产偷自产在线 | 国产激情一区二区三区 | 激情综合激情五月俺也去 | 日本一卡二卡不卡视频查询 | 国产热a欧美热a在线视频 | 性做久久久久久久免费看 | 日日碰狠狠丁香久燥 | 丰满少妇女裸体bbw | 国产真实乱对白精彩久久 | 亚洲熟妇色xxxxx欧美老妇 | 又色又爽又黄的美女裸体网站 | 国产人妻精品一区二区三区不卡 | 少妇的肉体aa片免费 | 天天拍夜夜添久久精品大 | 亚洲va欧美va天堂v国产综合 | 成人试看120秒体验区 | 亚洲精品欧美二区三区中文字幕 | 日本大乳高潮视频在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 在线精品国产一区二区三区 | 国产精品人妻一区二区三区四 | 九九久久精品国产免费看小说 | 亚洲国产av美女网站 | 国产口爆吞精在线视频 | 狠狠色欧美亚洲狠狠色www | 久久成人a毛片免费观看网站 | 四虎永久在线精品免费网址 | 熟女俱乐部五十路六十路av | 久久久无码中文字幕久... | 日产精品99久久久久久 | 丰满人妻翻云覆雨呻吟视频 | 日韩少妇内射免费播放 | 久久久久久国产精品无码下载 | 国产电影无码午夜在线播放 | 久热国产vs视频在线观看 | 色综合视频一区二区三区 | 天堂а√在线中文在线 | 欧美xxxx黑人又粗又长 | 国产热a欧美热a在线视频 | 色婷婷久久一区二区三区麻豆 | 影音先锋中文字幕无码 | 无码人妻黑人中文字幕 | 日韩人妻系列无码专区 | 亚洲无人区午夜福利码高清完整版 | 亚洲中文无码av永久不收费 | 久久久精品人妻久久影视 | 中文字幕无码日韩欧毛 | 亚洲gv猛男gv无码男同 | 国产极品美女高潮无套在线观看 | 亚洲精品综合五月久久小说 | 日日噜噜噜噜夜夜爽亚洲精品 | 日韩人妻无码一区二区三区久久99 | 日本一区二区更新不卡 | 真人与拘做受免费视频一 | 精品国产一区二区三区av 性色 | 欧美丰满熟妇xxxx性ppx人交 | 国产精品香蕉在线观看 | 曰本女人与公拘交酡免费视频 | 久久人人爽人人爽人人片ⅴ | 日本熟妇人妻xxxxx人hd | www一区二区www免费 | 午夜精品一区二区三区在线观看 | 玩弄中年熟妇正在播放 | 中文精品久久久久人妻不卡 | 日韩av激情在线观看 | 蜜桃av抽搐高潮一区二区 | 欧美成人家庭影院 | 免费人成在线视频无码 | 高潮毛片无遮挡高清免费视频 | 亚洲爆乳精品无码一区二区三区 | 性开放的女人aaa片 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲熟妇色xxxxx欧美老妇y | 亚洲一区二区三区含羞草 | 无码人妻久久一区二区三区不卡 | 久久人人爽人人人人片 | 成人av无码一区二区三区 | 成人欧美一区二区三区黑人免费 | 中文字幕无码热在线视频 | 亚洲一区av无码专区在线观看 | 国产香蕉尹人综合在线观看 | 青草青草久热国产精品 | 无码人妻精品一区二区三区下载 | 亚洲中文字幕无码中字 | 色婷婷av一区二区三区之红樱桃 | 中文字幕 亚洲精品 第1页 | 人人澡人人妻人人爽人人蜜桃 | 日本乱偷人妻中文字幕 | 国产真实伦对白全集 | 国产亚洲日韩欧美另类第八页 | 日日摸夜夜摸狠狠摸婷婷 | 思思久久99热只有频精品66 | 成在人线av无码免观看麻豆 | 中文字幕无码日韩欧毛 | 天堂在线观看www | 欧美三级不卡在线观看 | 成人动漫在线观看 | 国产欧美精品一区二区三区 | 男女下面进入的视频免费午夜 | 日本护士xxxxhd少妇 | 免费中文字幕日韩欧美 | 无码人妻出轨黑人中文字幕 | 久久99热只有频精品8 | 男人和女人高潮免费网站 | 日本大乳高潮视频在线观看 | 久久精品国产亚洲精品 | 扒开双腿疯狂进出爽爽爽视频 | 人妻中文无码久热丝袜 | 强辱丰满人妻hd中文字幕 | 俄罗斯老熟妇色xxxx | 亚洲成av人片在线观看无码不卡 | 网友自拍区视频精品 | 熟女少妇人妻中文字幕 | 精品午夜福利在线观看 | 色婷婷欧美在线播放内射 | 中文字幕人妻丝袜二区 | 99国产欧美久久久精品 | 久久亚洲精品中文字幕无男同 | 人人澡人人透人人爽 | 亚洲中文字幕无码中文字在线 | 丰满少妇熟乱xxxxx视频 | 日韩av无码一区二区三区不卡 | 亚洲日本va午夜在线电影 | 四十如虎的丰满熟妇啪啪 | 九九综合va免费看 | 色综合久久久无码中文字幕 | 学生妹亚洲一区二区 | 国产精品二区一区二区aⅴ污介绍 | 国产9 9在线 | 中文 | 欧美老人巨大xxxx做受 | 日韩少妇白浆无码系列 | 婷婷色婷婷开心五月四房播播 | 熟妇人妻激情偷爽文 | 香蕉久久久久久av成人 | 久久亚洲中文字幕无码 | 高清无码午夜福利视频 | 久久国产36精品色熟妇 | 久久久久人妻一区精品色欧美 | 天天av天天av天天透 | 5858s亚洲色大成网站www | 国产精品.xx视频.xxtv | 麻豆蜜桃av蜜臀av色欲av | 国产av无码专区亚洲awww | 免费无码午夜福利片69 | 极品嫩模高潮叫床 | 欧美 亚洲 国产 另类 | 亚洲色大成网站www | 国产高清av在线播放 | 久久99久久99精品中文字幕 | 欧美人与善在线com | а√资源新版在线天堂 | av无码久久久久不卡免费网站 | 国产午夜手机精彩视频 | 中文字幕精品av一区二区五区 | 水蜜桃色314在线观看 | 风流少妇按摩来高潮 | 欧美日韩久久久精品a片 | 国产亚洲精品久久久久久 | 中文字幕av日韩精品一区二区 | 中文无码成人免费视频在线观看 | 久久久精品欧美一区二区免费 | 天干天干啦夜天干天2017 | 亚洲国产日韩a在线播放 | 亚洲の无码国产の无码步美 | 天堂在线观看www | 国产成人一区二区三区别 | 性欧美疯狂xxxxbbbb | 亚洲精品久久久久avwww潮水 | 欧美猛少妇色xxxxx | 日本www一道久久久免费榴莲 | 女高中生第一次破苞av | 亚洲国产精品无码一区二区三区 | 国产精品自产拍在线观看 | 亚洲欧美国产精品专区久久 | 精品人妻人人做人人爽 | 精品水蜜桃久久久久久久 | 欧美黑人乱大交 | 狠狠噜狠狠狠狠丁香五月 | 欧美自拍另类欧美综合图片区 | 亚洲中文无码av永久不收费 | 亚洲中文字幕无码中字 | 人妻少妇精品无码专区动漫 | 中文无码伦av中文字幕 | 久久亚洲精品成人无码 | 成人av无码一区二区三区 | 欧美成人午夜精品久久久 | 欧美肥老太牲交大战 | 性色欲网站人妻丰满中文久久不卡 | 国产卡一卡二卡三 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲经典千人经典日产 | 成人无码视频免费播放 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产国产精品人在线视 | 亲嘴扒胸摸屁股激烈网站 | 无码精品国产va在线观看dvd | 国产精品18久久久久久麻辣 | 国产特级毛片aaaaaaa高清 | 性欧美疯狂xxxxbbbb | 国精品人妻无码一区二区三区蜜柚 | 强伦人妻一区二区三区视频18 | 99久久精品无码一区二区毛片 | 久久综合给合久久狠狠狠97色 | 国产精品亚洲五月天高清 | 人人妻在人人 | 性欧美熟妇videofreesex | 成年美女黄网站色大免费视频 | 亚洲一区二区三区无码久久 | 日日摸天天摸爽爽狠狠97 | 精品久久久久久人妻无码中文字幕 | 丰满肥臀大屁股熟妇激情视频 | 国产精品国产自线拍免费软件 | 成人精品视频一区二区三区尤物 | 久久久久成人精品免费播放动漫 | 7777奇米四色成人眼影 | 国产乱子伦视频在线播放 | 日本熟妇大屁股人妻 | 午夜精品一区二区三区在线观看 | 国产偷抇久久精品a片69 | 伊在人天堂亚洲香蕉精品区 | 国产精品办公室沙发 | 在线精品亚洲一区二区 | 2020久久超碰国产精品最新 | 久久精品国产精品国产精品污 | 丝袜人妻一区二区三区 | 正在播放老肥熟妇露脸 | 日日碰狠狠丁香久燥 | 又大又黄又粗又爽的免费视频 | 亚洲国产欧美日韩精品一区二区三区 | 狠狠色色综合网站 | 一本色道久久综合亚洲精品不卡 | 青青草原综合久久大伊人精品 | 亚洲精品国产a久久久久久 | 国产成人无码区免费内射一片色欲 | 国产成人一区二区三区别 | 亚洲一区二区三区偷拍女厕 | 女人高潮内射99精品 | 亚洲熟妇色xxxxx欧美老妇y | 国产一区二区三区四区五区加勒比 | 久久五月精品中文字幕 | 久久精品中文字幕一区 | 日本xxxx色视频在线观看免费 | 无码人妻av免费一区二区三区 | 日本精品人妻无码免费大全 | 思思久久99热只有频精品66 | 国产精品美女久久久久av爽李琼 | 2019午夜福利不卡片在线 | 波多野结衣 黑人 | 成人精品一区二区三区中文字幕 | 国产肉丝袜在线观看 | 67194成是人免费无码 | 小鲜肉自慰网站xnxx | 人妻少妇精品无码专区二区 | 国产口爆吞精在线视频 | 99久久久国产精品无码免费 | 国产人妖乱国产精品人妖 | 国产午夜无码精品免费看 | 亚洲熟女一区二区三区 | 日韩精品无码一区二区中文字幕 | 成人动漫在线观看 | av无码久久久久不卡免费网站 | 国产午夜精品一区二区三区嫩草 | 女人和拘做爰正片视频 | 久久精品中文字幕大胸 | 丰满肥臀大屁股熟妇激情视频 | 精品水蜜桃久久久久久久 | 老熟妇乱子伦牲交视频 | 98国产精品综合一区二区三区 | 久久久久久久久蜜桃 | 国产舌乚八伦偷品w中 | 亚洲中文字幕无码一久久区 | 人妻夜夜爽天天爽三区 | 亚洲欧美日韩国产精品一区二区 | 久久国产精品偷任你爽任你 | 精品少妇爆乳无码av无码专区 | 国产内射老熟女aaaa | 亚洲一区二区观看播放 | 无套内谢的新婚少妇国语播放 | 国产在线精品一区二区三区直播 | 人人妻人人澡人人爽欧美一区九九 | 国产精品久免费的黄网站 | 亚洲欧洲中文日韩av乱码 | 亚洲日本在线电影 | 中文字幕av日韩精品一区二区 | 婷婷六月久久综合丁香 | 正在播放老肥熟妇露脸 | 久久精品无码一区二区三区 | 欧美人妻一区二区三区 | 野狼第一精品社区 | 女人和拘做爰正片视频 | 亚洲国产精品久久久天堂 | 天堂在线观看www | 中文字幕乱码中文乱码51精品 | 欧美激情综合亚洲一二区 | 国产精品久久久av久久久 | 国产成人精品一区二区在线小狼 | 鲁一鲁av2019在线 | 人人妻人人澡人人爽人人精品 | 国产av无码专区亚洲awww | 亚洲aⅴ无码成人网站国产app | 大屁股大乳丰满人妻 | 国产成人无码av在线影院 | 99久久亚洲精品无码毛片 | 欧美freesex黑人又粗又大 | 久久亚洲精品中文字幕无男同 | 中文字幕乱码人妻无码久久 | 俄罗斯老熟妇色xxxx | 亚洲日韩精品欧美一区二区 | 性色欲网站人妻丰满中文久久不卡 | 无码乱肉视频免费大全合集 | 国产网红无码精品视频 | 精品久久综合1区2区3区激情 | 久久亚洲中文字幕无码 | 国产精品美女久久久网av | 久久午夜无码鲁丝片午夜精品 | av无码久久久久不卡免费网站 | 国产人妻人伦精品1国产丝袜 | 国内综合精品午夜久久资源 | 日韩欧美中文字幕公布 | 少妇久久久久久人妻无码 | 丰满岳乱妇在线观看中字无码 | 久久精品中文闷骚内射 | 精品欧美一区二区三区久久久 | 国产超级va在线观看视频 | 日本一本二本三区免费 | www国产精品内射老师 | 亚洲精品综合五月久久小说 | 一本久道久久综合狠狠爱 | 美女极度色诱视频国产 | 亚洲成av人在线观看网址 | 99精品无人区乱码1区2区3区 | 中文字幕乱码人妻无码久久 | 久久亚洲国产成人精品性色 | 人人澡人人妻人人爽人人蜜桃 | 大地资源网第二页免费观看 | 国产疯狂伦交大片 | 丰满人妻一区二区三区免费视频 | 日产国产精品亚洲系列 | 精品无码成人片一区二区98 | 国产福利视频一区二区 | 动漫av一区二区在线观看 | 在线播放亚洲第一字幕 | 亚洲男人av香蕉爽爽爽爽 | 欧美丰满熟妇xxxx性ppx人交 | 国产色精品久久人妻 | 色欲av亚洲一区无码少妇 | 色欲久久久天天天综合网精品 | 在教室伦流澡到高潮hnp视频 | 全黄性性激高免费视频 | 熟女体下毛毛黑森林 | 中文无码精品a∨在线观看不卡 | 日日天日日夜日日摸 | 麻豆md0077饥渴少妇 | 中国女人内谢69xxxx | 亚洲中文无码av永久不收费 | 男女爱爱好爽视频免费看 | 鲁一鲁av2019在线 | 欧美肥老太牲交大战 | 免费观看的无遮挡av | 国产69精品久久久久app下载 | 成人性做爰aaa片免费看不忠 | 亚洲国产精品无码久久久久高潮 | 中文字幕无码视频专区 | 久久亚洲日韩精品一区二区三区 | 香港三级日本三级妇三级 | 奇米影视7777久久精品人人爽 | 亚洲国产精品成人久久蜜臀 | 亚洲中文字幕在线观看 | 国产精品美女久久久网av | 亚洲一区二区三区无码久久 | 无码一区二区三区在线观看 | 亚洲色在线无码国产精品不卡 | 国产亚洲精品久久久久久国模美 | 极品嫩模高潮叫床 | 国产办公室秘书无码精品99 | 亚洲中文字幕在线无码一区二区 | 日本丰满护士爆乳xxxx | 久久www免费人成人片 | 图片区 小说区 区 亚洲五月 | 人人妻人人澡人人爽欧美一区 | 娇妻被黑人粗大高潮白浆 | 成人女人看片免费视频放人 | 国产午夜无码精品免费看 | 色妞www精品免费视频 | ass日本丰满熟妇pics | 欧美老人巨大xxxx做受 | 九九综合va免费看 | 奇米影视7777久久精品 | 亚洲国产精品无码久久久久高潮 | 亚洲gv猛男gv无码男同 | 玩弄中年熟妇正在播放 | 内射老妇bbwx0c0ck | 丰满少妇女裸体bbw | 77777熟女视频在线观看 а天堂中文在线官网 | 一区二区三区乱码在线 | 欧洲 | 国内丰满熟女出轨videos | 欧美激情内射喷水高潮 | 精品国产福利一区二区 | 99在线 | 亚洲 | 亚洲成a人片在线观看无码 | a在线观看免费网站大全 | 色五月五月丁香亚洲综合网 | 久久97精品久久久久久久不卡 | 曰韩无码二三区中文字幕 | 超碰97人人做人人爱少妇 | 国产一区二区三区精品视频 | 国产高清av在线播放 | 欧洲精品码一区二区三区免费看 | 玩弄中年熟妇正在播放 | 免费观看激色视频网站 | 国精产品一品二品国精品69xx | 亚洲国产av精品一区二区蜜芽 | 亚洲阿v天堂在线 | 国产精品美女久久久网av | 亲嘴扒胸摸屁股激烈网站 | 2019午夜福利不卡片在线 | 久久国产劲爆∧v内射 | 国产成人精品久久亚洲高清不卡 | 麻豆md0077饥渴少妇 | 国产亚洲精品久久久久久久 | 熟女少妇人妻中文字幕 | 久久久国产一区二区三区 | 97久久国产亚洲精品超碰热 | 无遮无挡爽爽免费视频 | 最新国产乱人伦偷精品免费网站 | aⅴ亚洲 日韩 色 图网站 播放 | 99er热精品视频 | 精品少妇爆乳无码av无码专区 | 亚洲经典千人经典日产 | 一本久久a久久精品vr综合 | 一个人看的www免费视频在线观看 | 狂野欧美激情性xxxx | 国产又粗又硬又大爽黄老大爷视 | 曰韩少妇内射免费播放 | 国产成人无码一二三区视频 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久久aⅴ免费观看 | 国内少妇偷人精品视频 | 国产精品嫩草久久久久 | 欧美日韩一区二区综合 | 精品无码成人片一区二区98 | 呦交小u女精品视频 | 爽爽影院免费观看 | 中文精品久久久久人妻不卡 | 精品无码国产自产拍在线观看蜜 | 亚洲另类伦春色综合小说 | 强伦人妻一区二区三区视频18 | 人妻互换免费中文字幕 | 精品国产一区二区三区av 性色 | 久久精品国产日本波多野结衣 | a在线观看免费网站大全 | 精品无码成人片一区二区98 | 最近免费中文字幕中文高清百度 | 露脸叫床粗话东北少妇 | 亚洲日韩精品欧美一区二区 | 18黄暴禁片在线观看 | 国产午夜亚洲精品不卡 | 色欲久久久天天天综合网精品 | 亚洲自偷自拍另类第1页 | 亚洲日韩精品欧美一区二区 | 精品熟女少妇av免费观看 | 亚洲国产精品久久久天堂 | 国产在线一区二区三区四区五区 | 精品久久久久久亚洲精品 | 亚洲精品国产精品乱码视色 | 人人妻人人澡人人爽人人精品 | 人妻aⅴ无码一区二区三区 | 亚洲aⅴ无码成人网站国产app | 在线看片无码永久免费视频 | 少妇人妻偷人精品无码视频 | 久久久久成人精品免费播放动漫 | 丰满人妻一区二区三区免费视频 | 亚洲精品成a人在线观看 | 人妻体内射精一区二区三四 | 成人欧美一区二区三区黑人免费 | 日韩精品久久久肉伦网站 | 乱中年女人伦av三区 | 青青久在线视频免费观看 | 99riav国产精品视频 | 国产莉萝无码av在线播放 | 青青青手机频在线观看 | 国产精品亚洲五月天高清 | 日韩精品一区二区av在线 | 久久久av男人的天堂 | 久久久www成人免费毛片 | 成人无码影片精品久久久 | www国产精品内射老师 | 狂野欧美激情性xxxx | 亚洲七七久久桃花影院 | 日日天干夜夜狠狠爱 | 中文字幕乱码人妻无码久久 | 欧美丰满熟妇xxxx性ppx人交 | 国产人妻精品一区二区三区 | 性欧美疯狂xxxxbbbb | 少妇被粗大的猛进出69影院 | 蜜桃臀无码内射一区二区三区 | 亚洲中文字幕久久无码 | 国产精品人人爽人人做我的可爱 | 亚洲国产av美女网站 | 麻豆av传媒蜜桃天美传媒 | 又大又硬又爽免费视频 | 狂野欧美性猛xxxx乱大交 | 日韩av无码一区二区三区不卡 | 亚洲色欲色欲欲www在线 | aⅴ亚洲 日韩 色 图网站 播放 | 欧美精品国产综合久久 | 兔费看少妇性l交大片免费 | 综合激情五月综合激情五月激情1 | 亚洲中文字幕成人无码 | 精品成人av一区二区三区 | 成人性做爰aaa片免费看 | 人妻无码αv中文字幕久久琪琪布 | 久久国产精品萌白酱免费 | 日本一卡2卡3卡四卡精品网站 | 国产精品无码成人午夜电影 | 国产又粗又硬又大爽黄老大爷视 | 国精产品一品二品国精品69xx | 国产另类ts人妖一区二区 | 性欧美熟妇videofreesex | 久久精品人妻少妇一区二区三区 | av无码不卡在线观看免费 | 精品久久久久久人妻无码中文字幕 | 成人一在线视频日韩国产 | 无码人妻丰满熟妇区毛片18 | 性欧美牲交xxxxx视频 | 婷婷综合久久中文字幕蜜桃三电影 | 波多野42部无码喷潮在线 | 男女爱爱好爽视频免费看 | 日日碰狠狠丁香久燥 | 无码精品人妻一区二区三区av | 99久久精品午夜一区二区 | 鲁大师影院在线观看 | 国产又粗又硬又大爽黄老大爷视 | 国产激情一区二区三区 | 亚洲理论电影在线观看 | 亚洲伊人久久精品影院 | 国产亚洲人成在线播放 | 日韩精品乱码av一区二区 | 精品人人妻人人澡人人爽人人 | 亚洲精品一区三区三区在线观看 | 欧美激情内射喷水高潮 | 波多野结衣av在线观看 | 国产精品人人爽人人做我的可爱 | 牲交欧美兽交欧美 | www一区二区www免费 | 国产一区二区三区精品视频 | 沈阳熟女露脸对白视频 | 亚洲精品一区二区三区在线观看 | 中文字幕人成乱码熟女app | 曰韩无码二三区中文字幕 | 少妇激情av一区二区 | 精品无码国产一区二区三区av | 久久精品国产亚洲精品 | 久久久久久亚洲精品a片成人 | 九九在线中文字幕无码 | 2019nv天堂香蕉在线观看 | 亚洲码国产精品高潮在线 | 天天拍夜夜添久久精品大 | 国产高潮视频在线观看 | 精品无码国产一区二区三区av | 国产精品鲁鲁鲁 | 色婷婷综合中文久久一本 | 亚洲乱码日产精品bd | 亚洲精品一区二区三区在线观看 | 国内老熟妇对白xxxxhd | 久久国内精品自在自线 | 99久久无码一区人妻 | 亚洲午夜无码久久 | 在线观看欧美一区二区三区 | 婷婷六月久久综合丁香 | 99麻豆久久久国产精品免费 | 日韩精品无码一区二区中文字幕 | 欧美性生交xxxxx久久久 | 在线观看国产一区二区三区 | 伊人久久大香线蕉亚洲 | 成熟妇人a片免费看网站 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产精品久久久av久久久 | 午夜福利一区二区三区在线观看 | 天天躁日日躁狠狠躁免费麻豆 | 色综合久久网 | 亚洲色www成人永久网址 | 国产成人无码a区在线观看视频app | 日韩精品乱码av一区二区 | 丰满人妻被黑人猛烈进入 | 欧美老熟妇乱xxxxx | 亚洲一区av无码专区在线观看 | 无码国产乱人伦偷精品视频 | 免费无码av一区二区 | 免费无码一区二区三区蜜桃大 | 狂野欧美性猛交免费视频 | 国内精品九九久久久精品 | 99精品无人区乱码1区2区3区 | 性色欲网站人妻丰满中文久久不卡 | 色综合久久久久综合一本到桃花网 | 亚洲 欧美 激情 小说 另类 | 日本www一道久久久免费榴莲 | 亚洲人亚洲人成电影网站色 | 欧美丰满少妇xxxx性 | 成人无码视频在线观看网站 | 国产精品国产自线拍免费软件 | 丰满妇女强制高潮18xxxx | www国产精品内射老师 | 在线看片无码永久免费视频 | 欧美猛少妇色xxxxx | 老熟女重囗味hdxx69 | 国产亚洲精品久久久久久国模美 | 亚洲爆乳大丰满无码专区 | 国产精品亚洲专区无码不卡 | 女人被男人躁得好爽免费视频 | 日韩无套无码精品 | 亚洲国产欧美日韩精品一区二区三区 | 国产精品福利视频导航 | 成人aaa片一区国产精品 | 99久久亚洲精品无码毛片 | 人妻插b视频一区二区三区 | 国产黄在线观看免费观看不卡 | 精品水蜜桃久久久久久久 | 美女扒开屁股让男人桶 | 日日碰狠狠躁久久躁蜜桃 | 无码精品人妻一区二区三区av | 男女性色大片免费网站 | 午夜精品久久久内射近拍高清 | 樱花草在线播放免费中文 | 在线播放亚洲第一字幕 | 性欧美熟妇videofreesex | 中国女人内谢69xxxxxa片 | 免费观看黄网站 | 欧美老妇与禽交 | 久久久久久亚洲精品a片成人 | 国产色xx群视频射精 | 国产成人综合色在线观看网站 | 又色又爽又黄的美女裸体网站 | 亚洲自偷自拍另类第1页 | 色一情一乱一伦一区二区三欧美 | 国产精品亚洲а∨无码播放麻豆 | 欧美日韩视频无码一区二区三 | 久久精品国产99精品亚洲 | 天堂а√在线中文在线 | 婷婷综合久久中文字幕蜜桃三电影 | 18精品久久久无码午夜福利 | 欧美国产亚洲日韩在线二区 | 亚洲中文字幕va福利 | 狠狠躁日日躁夜夜躁2020 | 中文字幕乱码人妻二区三区 | 亚洲欧洲无卡二区视頻 | 一本大道久久东京热无码av | 人妻中文无码久热丝袜 | 久久久av男人的天堂 | 熟妇人妻激情偷爽文 | 又大又硬又黄的免费视频 | 蜜臀aⅴ国产精品久久久国产老师 | 秋霞成人午夜鲁丝一区二区三区 | 无码乱肉视频免费大全合集 | 国产香蕉尹人视频在线 | 丰满少妇高潮惨叫视频 | 麻豆果冻传媒2021精品传媒一区下载 | 人妻少妇被猛烈进入中文字幕 | 无码人妻黑人中文字幕 | 高清不卡一区二区三区 | 天天拍夜夜添久久精品大 | 亚洲精品国产精品乱码不卡 | 久久精品无码一区二区三区 | 东京热男人av天堂 | 色妞www精品免费视频 | 99久久精品无码一区二区毛片 | 亚洲一区二区三区 | 沈阳熟女露脸对白视频 | 欧美自拍另类欧美综合图片区 | 无码中文字幕色专区 | 中文字幕无码av激情不卡 | 色一情一乱一伦一视频免费看 | 国产综合在线观看 | 国产精品香蕉在线观看 | 在线观看国产午夜福利片 | 国产精品久久久久影院嫩草 | 乱中年女人伦av三区 | 丰满诱人的人妻3 | 性啪啪chinese东北女人 | 国产xxx69麻豆国语对白 | 欧美日韩亚洲国产精品 | 国产亚洲精品久久久久久久久动漫 | 欧美国产亚洲日韩在线二区 | 色一情一乱一伦一区二区三欧美 | 日韩人妻系列无码专区 | 波多野结衣一区二区三区av免费 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲综合无码一区二区三区 | 欧美三级不卡在线观看 | 激情综合激情五月俺也去 | 国产精华av午夜在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 国产精品va在线观看无码 | 亚洲区欧美区综合区自拍区 | 国产激情精品一区二区三区 | 人妻无码久久精品人妻 | 亚洲成av人片天堂网无码】 | 日韩人妻无码中文字幕视频 | 夜先锋av资源网站 | 久久97精品久久久久久久不卡 | 国产一精品一av一免费 | 国产精品久久久av久久久 | 久久精品女人天堂av免费观看 | 国产两女互慰高潮视频在线观看 | 暴力强奷在线播放无码 | 窝窝午夜理论片影院 | 国内精品九九久久久精品 | 国产av久久久久精东av | 中文字幕av日韩精品一区二区 | 欧美熟妇另类久久久久久不卡 | 国产在线无码精品电影网 | 国产午夜福利100集发布 | 熟妇女人妻丰满少妇中文字幕 | 中文字幕无码人妻少妇免费 | 捆绑白丝粉色jk震动捧喷白浆 | 国产成人av免费观看 | 久久亚洲中文字幕精品一区 | 欧美丰满熟妇xxxx | 狂野欧美性猛xxxx乱大交 | 精品国产青草久久久久福利 | 四虎国产精品一区二区 | 亚洲人成影院在线观看 | 亚洲中文字幕无码一久久区 | 日本一区二区三区免费高清 | 国产人妻久久精品二区三区老狼 | 亚洲 欧美 激情 小说 另类 | 色婷婷av一区二区三区之红樱桃 | 日日干夜夜干 | 国产精品久久久久久久9999 | 夜夜躁日日躁狠狠久久av | 丰满少妇熟乱xxxxx视频 | 亚洲国产午夜精品理论片 | 一本色道久久综合亚洲精品不卡 | 中国大陆精品视频xxxx | 激情内射日本一区二区三区 | 99视频精品全部免费免费观看 | 精品国产福利一区二区 | 国产一区二区不卡老阿姨 | 久久97精品久久久久久久不卡 | 精品国产一区av天美传媒 | 国产成人精品视频ⅴa片软件竹菊 | 午夜精品一区二区三区在线观看 | 高清国产亚洲精品自在久久 | 沈阳熟女露脸对白视频 | 丰满少妇熟乱xxxxx视频 | 国产精品亚洲专区无码不卡 | 欧美国产亚洲日韩在线二区 | 久久久久亚洲精品中文字幕 | 久久久精品人妻久久影视 | 波多野结衣一区二区三区av免费 | 99久久精品国产一区二区蜜芽 | 国产午夜无码视频在线观看 | 人妻夜夜爽天天爽三区 | 377p欧洲日本亚洲大胆 | 一本大道伊人av久久综合 | 国产无av码在线观看 | 日本精品人妻无码免费大全 | 欧美大屁股xxxxhd黑色 | 亚洲精品综合一区二区三区在线 | 久久99精品久久久久婷婷 | 粉嫩少妇内射浓精videos | 亚洲男人av香蕉爽爽爽爽 | 水蜜桃色314在线观看 | 黑森林福利视频导航 | 久久久国产一区二区三区 | 亚洲gv猛男gv无码男同 | 狠狠噜狠狠狠狠丁香五月 | 国产69精品久久久久app下载 | 日本成熟视频免费视频 | 荫蒂添的好舒服视频囗交 | 男女猛烈xx00免费视频试看 | 国产特级毛片aaaaaaa高清 | 麻豆果冻传媒2021精品传媒一区下载 | 精品午夜福利在线观看 | 三上悠亚人妻中文字幕在线 | 免费无码的av片在线观看 | 国产成人无码午夜视频在线观看 | 欧美精品免费观看二区 | 欧美放荡的少妇 | 高清国产亚洲精品自在久久 | 波多野结衣av一区二区全免费观看 | 成人一区二区免费视频 | 欧美日韩综合一区二区三区 | 国产超级va在线观看视频 | aa片在线观看视频在线播放 | 日日天日日夜日日摸 | 国内精品人妻无码久久久影院蜜桃 | 无遮无挡爽爽免费视频 | 蜜臀aⅴ国产精品久久久国产老师 | 国产美女精品一区二区三区 | 无码人妻少妇伦在线电影 | 国产成人精品优优av | 亚洲欧洲无卡二区视頻 | 国产情侣作爱视频免费观看 | 无码国产乱人伦偷精品视频 | 国产激情综合五月久久 | 九九热爱视频精品 | 夜夜夜高潮夜夜爽夜夜爰爰 | 久久综合九色综合欧美狠狠 | 国产suv精品一区二区五 | 久久99精品国产.久久久久 | 少妇性俱乐部纵欲狂欢电影 | 精品偷拍一区二区三区在线看 | 亚洲中文字幕av在天堂 | a片免费视频在线观看 | 午夜理论片yy44880影院 | 国产精品高潮呻吟av久久 | 乌克兰少妇性做爰 | 麻豆md0077饥渴少妇 | 国产精品久久久久久亚洲影视内衣 | 亚洲精品一区二区三区婷婷月 | yw尤物av无码国产在线观看 | 爽爽影院免费观看 | 精品久久久无码人妻字幂 | 久久久久人妻一区精品色欧美 | 蜜臀av无码人妻精品 | 正在播放老肥熟妇露脸 | 亚洲一区二区三区在线观看网站 | 中文字幕日韩精品一区二区三区 | 久久精品国产精品国产精品污 | a国产一区二区免费入口 | 亚洲精品综合一区二区三区在线 | 午夜福利电影 | 国产精品国产自线拍免费软件 | 国产香蕉尹人视频在线 | 波多野结衣乳巨码无在线观看 | 又大又硬又爽免费视频 | 国产97在线 | 亚洲 | 欧美精品国产综合久久 | 日韩视频 中文字幕 视频一区 | 亚洲精品成人av在线 | 人人澡人摸人人添 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产黑色丝袜在线播放 | 99在线 | 亚洲 | 97精品国产97久久久久久免费 | 亚洲 激情 小说 另类 欧美 | 国产精品久久久 | 欧美激情一区二区三区成人 | 成人一在线视频日韩国产 | 天天综合网天天综合色 | 蜜桃视频插满18在线观看 | 3d动漫精品啪啪一区二区中 | 欧美人与禽zoz0性伦交 | 久久精品人人做人人综合试看 | 国产av人人夜夜澡人人爽麻豆 | 亚洲va欧美va天堂v国产综合 | 欧美老熟妇乱xxxxx | 男女猛烈xx00免费视频试看 | 欧美日韩视频无码一区二区三 | 成人毛片一区二区 | 任你躁在线精品免费 | 18无码粉嫩小泬无套在线观看 | 国产精品.xx视频.xxtv | 亚洲高清偷拍一区二区三区 | 日韩av激情在线观看 | 亚洲欧美精品aaaaaa片 | 午夜精品久久久久久久久 | av无码不卡在线观看免费 | 无码av免费一区二区三区试看 | 日本一区二区三区免费高清 | 久久天天躁夜夜躁狠狠 | 樱花草在线社区www | 澳门永久av免费网站 | 亚洲精品中文字幕乱码 | 东京一本一道一二三区 | 色偷偷人人澡人人爽人人模 | 欧美老人巨大xxxx做受 |