Я пытался прочитать данные из 100 разделов одного из семейства столбцов Cassandra из Spark, и он имеет размер раздела 150-200 МБ.Таким образом, когда я пытаюсь запустить этот SparkJob для этого семейства столбцов, задержка чтения остальных семейств столбцов также затрудняется.Каковы могут быть возможные причины такого поведения и решения для того же самого?