指令整理
linux后臺運行sh文件
nohup sh sparkstationenergyTest.sh>>tslog01.log &vim操作
vim顯示行數
#顯示當前行行號,在VI的命令模式下輸入 :nu #顯示所有行號,在VI的命令模式下輸入 :set nu#使用vi編輯~/.vimrc文件或者/etc/vimrc文件,在該文件中加入一行"set nu",添加內容不含引號 #命令如下: vi ~/.vimrclinux中的mail命令
1.配置
vim /etc/mail.rc 文件尾增加以下內容 set from=1968089885@qq.com smtp="smtp.qq.com" set smtp-auth-user="1968089885@qq.com" smtp-auth-password="123456" set smtp-auth=login說明: from: 對方收到郵件時顯示的發件人 smtp: 指定第三方發送郵件的smtp服務器地址 smtp-auth: SMTP的認證方式。默認是LOGIN,也可改為CRAM-MD5或PLAIN方式 smtp-auth-user: 第三方發郵件的用戶名 smtp-auth-password: 用戶名對應密碼2.Mail命令
mail(選項)(參數)
[root@node3 opt]# mail --h mail: illegal option -- - Usage: mail -eiIUdEFntBDNHRV~ -T FILE -u USER -h hops -r address -s SUBJECT -a FILE -q FILE -f FILE -A ACCOUNT -b USERS -c USERS -S OPTION users3.mail參考
3.1無郵件正文
#mail -s "主題" 收件地址 mail -s "測試" maker2win@163.com3.2有郵件正文
#1)mail -s "主題" 收件地址< 文件(郵件正文.txt)mail -s "郵件主題" maker2win@163.com < /data/msg.txt #2)echo "郵件正文" | mail -s 郵件主題 收件地址echo "郵件正文內容" | mail -s "郵件主題" maker2win@163.com #3)cat 郵件正文.txt | mail -s 郵件主題 收件地址 cat /data/msg.txt | mail -s "郵件主題" maker2win@163.com3.3帶附件
mail -s "主題" 收件地址 -a 附件 < 文件(郵件正文.txt) % mail -s "郵件主題" maker2win@163.com -a /data/msg.tar.gz < /data/msg.txtlinux下查看cpu核心數
1.查看物理CPU個數
cat /proc/cpuinfo |grep "physical id"|sort|uniq|wc -l#2.查看每個物理CPU含有的core個數cat /proc/cpuinfo |grep "cpu cores"|uniq#3.查看邏輯CPU個數(邏輯CPU個數=物理CPU個數*core個數)cat /proc/cpuinfo |grep "processor"|wc -llinux釋放cache內存空間
#首先執行 sync #釋放pagecache: echo 1 > /proc/sys/vm/drop_caches #釋放dentries and inodes: echo 2 > /proc/sys/vm/drop_caches #釋放pagecache, dentries and inodes: echo 3 > /proc/sys/vm/drop_cacheslinux 內核參數優化-最大線程數限制及當前線程數查詢
1、總結系統限制有:/proc/sys/kernel/pid_max #查系統支持的最大線程數,一般會很大,相當于理論值/proc/sys/kernel/thread-maxmax_user_process(ulimit -u) #系統限制某用戶下最多可以運行多少進程或線程/proc/sys/vm/max_map_count硬件內存大小2、Java虛擬機本身限制:-Xms #intial java heap size-Xmx #maximum java heap size-Xss #the stack size for each thread3、查詢當前某程序的線程或進程數pstree -p `ps -e | grep java | awk '{print $1}'` | wc -l或pstree -p 3660 | wc -l或# pstack pid |grep LWP |wc -l4、查詢當前整個系統已用的線程或進程數pstree -p | wc -l1、 cat /proc/${pid}/status2、pstree -p ${pid}3、top -p ${pid} 再按H 或者直接輸入 top -bH -d 3 -p ${pid}top -H手冊中說:-H : Threads toggle加上這個選項啟動top,top一行顯示一個線程。否則,它一行顯示一個進程。4、ps xH手冊中說:H Show threads as if they were processes這樣可以查看所有存在的線程。5、ps -mp <PID>手冊中說:m Show threads after processes這樣可以查看一個進程起的線程數。軟連接ln指令
#切換到module目錄 cd /opt/module #創建測試mytext文件 mkdir mytest.txt #切換到software目錄 cd /opt/software #創建mytest.txt文件軟連接 ln -s /opt/module/mytest.txt mytest端口查看
#lsof -i:port lsof -i:2181 #netstat -tunlp|grep prot netstat -tunlp|grep 2181yum整理
yum 會把下載的軟件包和header存儲在cache中,而不自動刪除。如果覺得占用磁盤空間,可以使用yum clean指令進行清除,更精確 的用法是yum clean headers清除header,yum clean packages清除下載的rpm包,yum clean all一全部清除。
#清除全部緩存 yum clean allkafka
#創建topic ./kafka-topics.sh --create --zookeeper node3.sdp.cn:2181 --replication-factor 5 --partitions 5 --topic test#查看kafka topic列表,使用--list參數 /kafka-topics.sh --zookeeper node5.sdp.cn:2181 --list#查看kafka特定topic的詳情,使用--topic與--describe參數 ./kafka-topics.sh --zookeeper node5.sdp.cn:2181 --topic realdata --describe#查看topic偏移量 ./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper node5.sdp.cn:2181 --group consumer-tutorial --topic hisdata./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --zookeeper node5.sdp.cn:2181 --group consumer-tutorial --topic realdata#刪除topic ./kafka-topics.sh --delete --zookeeper node3.sdp.cn:2181 --topic test#查看consumer group列表,使用--list參數 ./kafka-consumer-groups.sh --zookeeper node4.sdp.cn:2181 --list#topic分區情況 ./kafka-topics.sh --describe --zookeeper node6.sdp.cn:2181 --topic realdata#通過kafka-topics.sh 的alter選項 ,將topic1的partitions從1增加到6; ./kafka-topics.sh --alter --topic topic1 --zookeeper ip:2181 --partitions 6hbase
#進入hbasehbase shell表的管理 1)查看有哪些表 hbase(main)> list2)創建表 # 語法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>} # 例如:創建表t1,有兩個family name:f1,f2,且版本數均為2 hbase(main)> create 't1',{NAME => 'f1', VERSIONS => 2},{NAME => 'f2', VERSIONS => 2}3)刪除表 分兩步:首先disable,然后drop 例如:刪除表t1hbase(main)> disable 't1' hbase(main)> drop 't1'4)查看表的結構 # 語法:describe <table> # 例如:查看表t1的結構 hbase(main)> describe 't1'5)修改表結構 修改表結構必須先disable# 語法:alter 't1', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'} # 例如:修改表test1的cf的TTL為180天 hbase(main)> disable 'test1' hbase(main)> alter 'test1',{NAME=>'body',TTL=>'15552000'},{NAME=>'meta', TTL=>'15552000'} hbase(main)> enable 'test1' #前綴查詢 scan 'Kg_MultiRadarData', {ROWPREFIXFILTER => 'MULTI',LIMIT=>1} #過濾條件查詢 scan 't_point_table_data_statistics_day',{FILTER=>"SingleColumnValueFilter('datasqc','projectNo',=,'binary:7964A17606AC43A08D3B1CB66A9368F7') AND SingleColumnValueFilter('datasqc','createTime',<=,'binary:20190225') AND SingleColumnValueFilter('datasqc','createTime',>=,'binary:20190225') AND SingleColumnValueFilter('datasqc','deviceNo',=,'binary:00001')"} #Hbase刪除表中所有數據 truncate 'Kg_MultiRadarData'storm
#上傳jar到storm集群 storm jar storm.jar com.jxre.bigdata.storm.HistoryDataDriver HISTORY_DATA_UP storm jar storm.jar com.jxre.bigdata.realtime.RealTimeDataDriver REALTIME_DATA #設置work數據 storm rebalance HISTORY_DATA_UP -w 60 -n 20 #設置executor數量 storm rebalance HISTORY_DATA_UP -w 60 -e data-parse=4 storm rebalance HISTORY_DATA_UP -w 60 -e data-split=4 storm rebalance HISTORY_DATA_UP -w 60 -e data-point=8 storm rebalance HISTORY_DATA_UP -w 60 -e data-persis=4hdfs
#列出HDFS下的文件 hadoop dfs -ls / #將hadoop目錄下的test1文件上傳到HDFS上并重命名為test hadoop dfs -put test1 test #刪除HDFS下名為test的文檔 hadoop dfs -rmr test #查看HDFS下a.txt文件中的內容 hadoop dfs -cat /a.txt #建立目錄 hadoop dfs -mkdir /user/hadoop/examples(目錄/目錄名)hadoop啟動和關閉命令
start-all.sh 啟動所有的Hadoop守護進程。包括NameNode、 Secondary NameNode、DataNode、JobTracker、 TaskTrack stop-all.sh 停止所有的Hadoop守護進程。包括NameNode、 Secondary NameNode、DataNode、JobTracker、 TaskTrack start-dfs.sh 啟動Hadoop HDFS守護進程NameNode、SecondaryNameNode和DataNode stop-dfs.sh 停止Hadoop HDFS守護進程NameNode、SecondaryNameNode和DataNode hadoop-daemons.sh start namenode 單獨啟動NameNode守護進程 hadoop-daemons.sh stop namenode 單獨停止NameNode守護進程 hadoop-daemons.sh start datanode 單獨啟動DataNode守護進程 hadoop-daemons.sh stop datanode 單獨停止DataNode守護進程 hadoop-daemons.sh start secondarynamenode 單獨啟動SecondaryNameNode守護進程 hadoop-daemons.sh stop secondarynamenode 單獨停止SecondaryNameNode守護進程 start-mapred.sh 啟動Hadoop MapReduce守護進程JobTracker和TaskTracker stop-mapred.sh 停止Hadoop MapReduce守護進程JobTracker和TaskTracker hadoop-daemons.sh start jobtracker 單獨啟動JobTracker守護進程 hadoop-daemons.sh stop jobtracker 單獨停止JobTracker守護進程 hadoop-daemons.sh start tasktracker 單獨啟動TaskTracker守護進程 hadoop-daemons.sh stop tasktracker 單獨啟動TaskTracker守護進程總結
- 上一篇: 查找水王
- 下一篇: 《陶哲轩实分析》阅读