给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误
生活随笔
收集整理的這篇文章主要介紹了
给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
剛開始,我輸入協處理器的語法是這樣子輸入的(隔了好幾天,我又用這個語法,又能行了,郁悶):
alter 'publicDataset:comment',METHOD =>'table_att','coprocessor'=>'hdfs://node1:8020/putJar/test-corprocessor.jar|com.train.endpointserver.SimilarityServer|1001|'但是一直報錯,后來看報錯提示說
You can add a table coprocessor by setting a table coprocessor attribute:hbase> alter 't1','coprocessor'=>'hdfs:///foo.jar|com.foo.FooRegionObserver|1001|arg1=1,arg2=2'Since you can have multiple coprocessors configured for a table, a sequence number will be automatically appended to the attribute name to uniquely identify it.The coprocessor attribute must match the pattern below in order for the framework to understand how to load the coprocessor classes:[coprocessor jar file location] | class name | [priority] | [arguments]倒數第二段說必須遵守這種格式,然后我就也把參數加上了
alter 'publicDataset:comment',METHOD =>'table_att','coprocessor'=>'hdfs://node1:8020/putJar/test-corprocessor.jar|com.train.endpointserver.SimilarityServer|1001|arg1=1,arg2=2'然后還是報這種錯誤。
然后我就看別人增加協處理器怎么寫的
他們的用的hdfs:///,而我用的hdfs://node1:8020/。于是我就改成了hdfs:///
然后就好了,以我的理解
hdfs:/// 是說明從這個文件系統找內容,就好像file:///一樣
而
hdfs://node1:8020/ 是hdfs文件系統的地址。
不知道我這樣理解的對不對,有大神看見可以幫忙指導下,這兩個地方有什么區別
總結
以上是生活随笔為你收集整理的给hbase增加协处理器报ERROR: org.apache.hadoop.hbase.DoNotRetryIOException:错误的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: linux/centos/集群安装ntp
- 下一篇: 原创:赵丽颖《向阳·花》预售倒挂?女性电