Этот формат для отметок времени работает просто отлично. Я думаю, что у вас есть проблема с типами Spark SQL, поэтому вам может потребоваться выполнить явное приведение для строки метки времени, чтобы Spark мог выполнить правильное сравнение.
Например, этот код Scala работает правильно ( вам может потребоваться настроить его на Python):
import org.apache.spark.sql.cassandra._
val data = spark.read.cassandraFormat("sdtest", "test").load()
val filtered = data.filter("ts >= cast('2019-07-17 14:41:34.373Z' as timestamp) AND ts <= cast('2019-07-19 19:01:56Z' as timestamp)")