Spark1.x和2.x如何读取和写入csv文件
看很多資料,很少有講怎么去操作讀寫csv文件的,我也查了一些。很多博客都是很老的方法,還有好多轉來轉去的,復制粘貼都不能看。下面我在這里歸納一下,以免以后用到時再費時間去查.前端實現文件下載和拖拽上傳
通過sc.textFile
val input = sc.textFile("test.csv") val result = input.map { line =>val reader = new CSVReader(new StringReader(line));reader.readNext() } // 創建了RDD確實這樣操作可以讀取,但是根據csv文件的格式能夠發現不方便后續操作,官方也建議通過Spark SQL來操作讀寫csv
怎么寫?順便提一句吧rdd.toDF.write.csv(...),要引入隱式操作import spark.implicits._
通過SparkSQL讀取csv文件
在 spark 1.x 中,讀寫csv使用了第三方庫 spark-csv,由 databricks 提供。 但在 spark 2.0中,將 csv 作為一個內置的源代碼。 這個決定主要是由于 csv 是企業中使用的主要數據格式之一。因此遷移到 spark 2.0時,需要將代碼移動到使用構建在 csv 源代碼中的代碼,而不是使用第三方代碼
1.x版本Spark SQL內置支持三種格式數據源:parquet(默認)、json、jdbc,所以讀取csv文件需要依賴com.databricks.spark.csv
// spark是SparkSession對象 val df = spark.read.format("com.databricks.spark.csv").option("header", "true") //reading the headers.option("mode", "DROPMALFORMED").load("csv/file/path"); //.csv("csv/file/path") //spark 2.0 apidf.show()2.x后也內置了csv的解析器,也可以簡單滴使用csv(),
val df=spark.read.format("csv").option("header", "true").option("mode", "DROPMALFORMED").csv("csv/file/path")
通過SparkSQL寫csv
//1.x data.write.format("com.databricks.spark.csv").option("header", "false")//在csv第一行有屬性”true”,沒有就是”false”.option("delimiter",",")//默認以”,”分割.save(outpath/test.csv) //2.x data.write.option("header", "true").csv("outpath/test.csv")貌似確定是否有頭部那塊寫true或者字符串"true"都可以
可以參考 stackmirror 上這兩個討論:
- Write single CSV file using spark-csv
- How to export data from Spark SQL to CSV
發現有些網站真的是惡心,轉我文章還不標準出處
來源:https://blog.csdn.net/lzw2016/article/details/85562172
轉載于:https://www.cnblogs.com/qixidi/p/10229242.html
總結
以上是生活随笔為你收集整理的Spark1.x和2.x如何读取和写入csv文件的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Go语言学习笔记(十八)之文件读写
- 下一篇: 小程序获取StorageSync时候的坑