Учитывая, что в этом примере показано общее описание DF Writer
df.write.partitionBy("EVENT_NAME","dt","hour").save("/apps/hive/warehouse/db/sample")
формат, тогда ваш подход должен заключаться в создании дополнительного столбца xc, который устанавливается UDF, или некоторого def или val, который устанавливает xc в соответствии с именем, например, ABC -> 123 и т. Д. Затем вы разбиваете этот столбец xc и принимаете, что part-xxxxx именно так и работает в Spark.
Затем вы можете сами переименовать файлы с помощью скрипта.