使用SAP Data Hub Developer Edition将数据写入Hadoop
生活随笔
收集整理的這篇文章主要介紹了
使用SAP Data Hub Developer Edition将数据写入Hadoop
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
SAP Data Hub Developer Editor有一個默認的Apache Hadoop安裝。
使用如下的命令行啟動Hadoop:
docker run -ti --publish 127.0.0.1:50070:50070 --name hdfs --hostname hdfs --net dev-net datahub run-hdfs
瀏覽器里訪問控制臺:
http://localhost:50070
新建一個Graph,將data Generator生成的數據寫入Kafka Producer;
數據再從Kafka Consumer讀取出來,輸出到Write File operator里,進行持久化操作。
Write File的path指向Hadoop文件夾:
指定Hadoop的連接信息:
運行Graph之后,在Hadoop該文件夾下看到通過Write File Operator寫入的文件。
要獲取更多Jerry的原創文章,請關注公眾號"汪子熙":
總結
以上是生活随笔為你收集整理的使用SAP Data Hub Developer Edition将数据写入Hadoop的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: SpaceX 星舰首飞爆炸后果严重:碎片
- 下一篇: 腾讯与 Unity 中国合作,推出定制化