При вводе данных в Hbase
с использованием метода HTable.put
я иногда получаю следующее исключение. Но на самом деле данные были записаны в Hbase
, когда я проверил операцию get для этой конкретной rowkey
.
В то же время я искал журналы как в HMaster, так и в HRegionservers
, чтобы определить проблему. Но не смог найти это.
Пожалуйста, помогите точно настроить Hbase
Конфигурации, чтобы избежать InterruptedIOException.
Hadoop Distribution: Apache
Version: HBase 1.2.6
Cluster size: 12nodes
java.io.InterruptedIOException: #17209, interrupted. currentNumberOfTask=1
at org.apache.hadoop.hbase.client.AsyncProcess.waitForMaximumCurrentTasks(AsyncProcess.java:1764)
at org.apache.hadoop.hbase.client.AsyncProcess.waitForMaximumCurrentTasks(AsyncProcess.java:1734)
at org.apache.hadoop.hbase.client.AsyncProcess.waitForAllPreviousOpsAndReset(AsyncProcess.java:1810)
at org.apache.hadoop.hbase.client.BufferedMutatorImpl.backgroundFlushCommits(BufferedMutatorImpl.java:240)
at org.apache.hadoop.hbase.client.BufferedMutatorImpl.flush(BufferedMutatorImpl.java:190)
at org.apache.hadoop.hbase.client.HTable.flushCommits(HTable.java:1434)
at org.apache.hadoop.hbase.client.HTable.put(HTable.java:1018)
Пожалуйста, помогите решить ее
С тем же исключением кто-то сталкивался. Но в этом потоке нет объяснения, какие конфигурации необходимо проверять, чтобы избежать этого
https://groups.google.com/forum/#!topic/nosql-databases/UxfrmWl_ZnM