离线轻量级大数据平台Spark之中文字符显示问题的解决
生活随笔
收集整理的這篇文章主要介紹了
离线轻量级大数据平台Spark之中文字符显示问题的解决
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
問題:spark讀取文本文件轉化成JavaRDD后發現中文字符顯示亂碼。
在spark-shell環境里執行:System.getProperty("file.encoding"),返回GB2312,和文本文件UTF-8編碼不一樣。
解決:在spark的Java代碼中加入字符集設置即可。
//第一步:設置Java環境字符集,避免中文亂碼
Properties pps=System.getProperties(); ?
pps.setProperty("file.encoding","UTF-8");?
總結
以上是生活随笔為你收集整理的离线轻量级大数据平台Spark之中文字符显示问题的解决的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Java实现算法导论中快速傅里叶变换FF
- 下一篇: Ansj中文分词Java开发自定义和过滤