[Spark][Python]sortByKey 例子
[Spark][Python]sortByKey 例子:
[training@localhost ~]$ hdfs dfs -cat test02.txt
00002 sku010
00001 sku933
00001 sku022
00003 sku888
00004 sku411
00001 sku912
00001 sku331
[training@localhost ~]$
mydata001=sc.textFile("test02.txt")
mydata002=mydata001.map(lambda line: line.split(' '))
mydata002.take(3)
Out[4]: [[u'00002', u'sku010'], [u'00001', u'sku933'], [u'00001', u'sku022']]
mydata003=mydata002.sortByKey()
In [9]: mydata003.take(5)
Out[9]:?
[[u'00001', u'sku933'],
[u'00001', u'sku022'],
[u'00001', u'sku912'],
[u'00001', u'sku331'],
[u'00002', u'sku010']]
In [10]:
API 參考:
https://spark.apache.org/docs/latest/api/python/pyspark.html#pyspark.RDD
本文轉自健哥的數據花園博客園博客,原文鏈接:http://www.cnblogs.com/gaojian/p/7612792.html,如需轉載請自行聯系原作者
總結
以上是生活随笔為你收集整理的[Spark][Python]sortByKey 例子的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 验证 Swarm 数据持久性 - 每天5
- 下一篇: 获得WebBrowser中的图片数据