Бег Элассандра 5.5.0.18 (Кассандра 3.11.2)
Я настроил тестовый кластер, содержащий 2 узла. RF = 2. Я ожидаю, что оба узла будут иметь одинаковые данные после начальной загрузки.
Datacenter: datacenter1
=======================
Status=Up/Down
|/ State=Normal/Leaving/Joining/Moving
-- Address Load Tokens Owns (effective) Host ID Rack
UN xxx.xxx.2.40 1.31 MiB 256 100.0% 388acf50-96c0-4294-938f-be56437bbf82 rack1
UN xxx.xxx.0.236 2.8 MiB 256 100.0% 8eed1e55-1b58-4599-a021-82b6852875aa rack1
Когда я добавляю данные на узел 1, я вижу, что они реплицируются на узел 2 (cqlsh непосредственно на узел). Но узел 2 имеет только свежие данные, данные из узла 1, которые были там до процесса начальной загрузки, не реплицируются.
Я попытался запустить восстановление nodetool, но это не помогло со следующим сообщением об ошибке
Validation failed in /xxx.xxx.0.236 (progress: 0%)
[2018-06-27 13:49:19,438] Some repair failed
[2018-06-27 13:49:19,440] Repair command #1 finished in 9 seconds
error: Repair job has failed with the error message: [2018-06-27 13:49:19,438] Some repair failed
-- StackTrace --
java.lang.RuntimeException: Repair job has failed with the error message: [2018-06-27 13:49:19,438] Some repair failed
at org.apache.cassandra.tools.RepairRunner.progress(RepairRunner.java:116)
at org.apache.cassandra.utils.progress.jmx.JMXNotificationProgressListener.handleNotification(JMXNotificationProgressListener.java:77)
at com.sun.jmx.remote.internal.ClientNotifForwarder$NotifFetcher.dispatchNotification(ClientNotifForwarder.java:583)
at com.sun.jmx.remote.internal.ClientNotifForwarder$NotifFetcher.doRun(ClientNotifForwarder.java:533)
at com.sun.jmx.remote.internal.ClientNotifForwarder$NotifFetcher.run(ClientNotifForwarder.java:452)
at com.sun.jmx.remote.internal.ClientNotifForwarder$LinearExecutor$1.run(ClientNotifForwarder.java:108)
Что я делаю не так?