[scala-spark]1. Spark vs Hadoop 及 基础
生活随笔
收集整理的這篇文章主要介紹了
[scala-spark]1. Spark vs Hadoop 及 基础
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1. Spark與Hadoop
2. MapReduce的基本計算過程
與之相對比的是Spark往往在一個內存的物理節點完成計算(主要用內存,Shuffle的時候也用到磁盤)。很多操作,比如說單純的map操作,沒有reduce操作;或者Filter類的操作,都可以基于內存進行計算。
MR的計算模型相比較,非常固定,而且死板。必須基于磁盤,以及大量的網絡傳輸。
所以,spark的速度比MR、Hive(底層也是基于MR來執行SQL語句)快數十倍,甚至上百倍。
3. Spark整體架構
?
總結
以上是生活随笔為你收集整理的[scala-spark]1. Spark vs Hadoop 及 基础的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 内存经销商穷困潦倒 七元午饭都赊账
- 下一篇: [scala-spark]2. Scal