Начальная загрузка застряла после завершения потоковой передачи - PullRequest
1 голос
/ 27 января 2012

Я добавляю узлы в свой существующий кластер кассандры. Начальная загрузка застряла после того, как Node направил все данные. netstats не показывает данные в потоке на новый узел. Когда я проверяю nodetool - info для нового узла, он показывает исключение. Это исключение может быть причиной зависания при загрузке.

Файл журнала на присоединяющемся узле показывает следующее исключение. Но следующее исключение не остановило потоковую передачу. Этот узел также передает данные после исключения.

java.io.EOFException: EOF после 129546466 байт из 825307185 в org.apache.cassandra.io.util.FileUtils.skipBytesFully (FileUtils.java:229) в org.apache.cassandra.io.sstable.IndexHelper.skipBloomFilter (IndexHelper.java:50) в org.apache.cassandra.io.sstable.SSTableWriter $ RowIndexer.doIndexing (SSTableWriter.java:451) в org.apache.cassandra.io.sstable.SSTableWriter $ RowIndexer.index (SSTableWriter.java:364) в org.apache.cassandra.io.sstable.SSTableWriter $ Builder.build (SSTableWriter.java:315) в org.apache.cassandra.db.compaction.CompactionManager $ 9.call (CompactionManager.java:1101) в org.apache.cassandra.db.compaction.CompactionManager $ 9.call (CompactionManager.java:1092) в java.util.concurrent.FutureTask $ Sync.innerRun (FutureTask.java:303) в java.util.concurrent.FutureTask.run (FutureTask.java:138) в java.util.concurrent.ThreadPoolExecutor $ Worker.runTask (ThreadPoolExecutor.java:886) в java.util.concurrent.ThreadPoolExecutor $ Worker.run (ThreadPoolExecutor.java:908) at java.lang.Thread.run (Thread.java:662)

Ответы [ 2 ]

1 голос
/ 03 февраля 2012

Я думаю, что вы правы, поэтому загрузчик застрял.

Я бы запустил «очистку nodetool» для существующих узлов, а затем повторил бы загрузочную загрузку на новом (после очистки данных с первой попытки).

0 голосов
/ 01 ноября 2012

Просто добавьте приведенный выше ответ. Даже очистка nodetool не работала, и некоторые из узлов по-прежнему создавали проблемы в нашем случае.

Обновление до версии 1.1 и загрузка данных с помощью sstable loader решили эту проблему.Я не могу комментировать, является ли это оптимальным решением, но в нашем случае это сработало.

...