У меня есть таблица в scylla, назовите ее «tablex», в пространстве ключей «keyspacey», теперь я загружаю данные из нее в Spark, и я обнаружил очень большое количество разделов, копающихся в коде, который я виделон использует mean_partition_size
, это можно увидеть с помощью запроса:
SELECT range_start, range_end, partitions_count, mean_partition_size FROM system.size_estimates WHERE keyspace_name = 'keyspacey' AND table_name = 'tablex';
tablex имеет 586 строк, каждая из которых состоит из метки времени, текста, текста, bigint.
Выполнение запроса выше,Я получил 256 строк, у всех есть partition_count = 1 и nean_partition_size = 5960319812.
В чем может быть причина проблемы и как ее решить?