spark-on-yarn日志配置
生活随笔
收集整理的這篇文章主要介紹了
spark-on-yarn日志配置
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
spark on yarn 日志無法正常顯示
是因?yàn)槲覀冊(cè)谶\(yùn)行spark任務(wù)后,默認(rèn)是由AM進(jìn)行歷史任務(wù)匯聚,拼接的URL是job history的鏈接,但是spark里面>是drive負(fù)責(zé)匯聚,需要通過spark history進(jìn)行收集后才能查看。
下面給出配置方式
1. 修改spark-defaults.conf
添加以下內(nèi)容
spark.eventLog.enabled true spark.eventLog.compress true spark.eventLog.dir hdfs:///user/log/spark spark.yarn.historyServer.address park-host:180802. 修改sparn-env.sh
添加
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs:///user/log/spark"3. 啟動(dòng)Spark History Server
/usr/local/spark/sbin/start-history-server.sh4. 訪問測(cè)試
總結(jié)
以上是生活随笔為你收集整理的spark-on-yarn日志配置的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: shell脚本命令set
- 下一篇: spark任务jvm内存溢出