Вам придется временно разделить столбец, чтобы достичь желаемого.Следующий код:
from pyspark.sql import types as T
vals = ['A1','F1' ,'A10','A11','C23','A2','A21']
tempNames = ['letter', 'number']
df = spark.createDataFrame(vals, T.StringType())
df = df.select(F.regexp_extract('value', "(\w)", 1).alias(tempNames[0])
,F.regexp_extract('value', "\w(\d*)", 1).cast('int').alias(tempNames[1])
,df.value).orderBy(tempNames).drop(*tempNames)
df.show()
временно создает два столбца («буква» и «число») из вашего столбца ...
+------+------+-----+
|letter|number|value|
+------+------+-----+
| A| 1| A1|
| F| 1| F1|
| A| 10| A10|
| A| 11| A11|
| C| 23| C23|
| A| 2| A2|
| A| 21| A21|
+------+------+-----+
... и использует их для сортировкистолбец:
+-----+
|value|
+-----+
| A1|
| A2|
| A10|
| A11|
| A21|
| C23|
| F1|
+-----+
Еще более короткое решение, указанное @pault:
df.orderBy(F.regexp_extract(F.col("value"), r"[A-Za-z]+", 0), F.regexp_extract(F.col("value"), r"\d+", 0).cast('int')).show()