Spark:使用partitionColumn选项读取数据库原理
生活随笔
收集整理的這篇文章主要介紹了
Spark:使用partitionColumn选项读取数据库原理
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
代碼:
val tbname = "TABLENAME" val df = spark.read.format("jdbc").option("driver", "oracle.jdbc.driver.OracleDriver").option("url", "jdbc:oracle:thin:@10.18.2.3:1521:dbname").option("user", "***").option("password", "***").option("dbtable", s"(select t.*, ROWNUM rownum__rn from ${tbname} t) b").option("fetchsize", 100000).option("partitionColumn", "rownum__rn").option("lowerBound", 1).option("upperBound", 4000000).option("numPartitions", 2).load().drop("rownum__rn")偽代碼,僅幫助理解:
# 情況一: if partitionColumn || lowerBound || upperBound || numPartitions 有任意選項未指定,報錯 # 情況二: if numPartitions == 1 忽略這些選項,直接讀取,返回一個分區 # 情況三: if numPartitions > 1 && lowerBound > upperBound 報錯 # 情況四: numPartitions = min(upperBound - lowerBound, numPartitions) if numPartitions == 1 同情況二 else 返回numPartitions個分區 delta = (upperBound - lowerBound) / numPartitions 分區1數據條件:partitionColumn <= lowerBound + delta || partitionColumn is null 分區2數據條件:partitionColumn > lowerBound + delta && partitionColumn <= lowerBound + 2 * delta ... 最后分區數據條件:partitionColumn > lowerBound + n*delta轉載于:https://www.cnblogs.com/xuejianbest/p/10284989.html
總結
以上是生活随笔為你收集整理的Spark:使用partitionColumn选项读取数据库原理的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Maven打包方式
- 下一篇: 实践 | 不同行业WMS选型策略及需要注