scala中rdd无法join的问题
生活随笔
收集整理的這篇文章主要介紹了
scala中rdd无法join的问题
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
原始代碼如下:
import org.apache.spark.{SparkConf, SparkContext} import org.apache.log4j.{Level, Logger}object hello {def main(args: Array[String]){Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.project-spark").setLevel(Level.WARN)var conf = new SparkConf().setMaster("spark://Desktop:7077").setAppName("appName")var sc = new SparkContext(conf)var rdd2= sc.makeRDD(Array((1,1,"a"),(2,2,"b"),(3,3,"c")))var rdd1 = sc.makeRDD(Array((1,1,4),(2,2,5),(3,3,6)))println(rdd2.getClass.getSimpleName) // var rdd3=rdd1.join(rdd2)println(rdd1.collect())} }這個(gè)原因是上面的是三維的Array,改成兩維的即可進(jìn)行join了。
var rdd2= sc.makeRDD(Array((1,"a"),(2,"b"),(3,"c"))) var rdd1 = sc.makeRDD(Array((1,"b"),(2,"c"),(3,"d")))?
總結(jié)
以上是生活随笔為你收集整理的scala中rdd无法join的问题的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 沈庆青春(现代诗┃沈庆:青春)
- 下一篇: 五台山旅游(五台山攻略)