Это зависит от того, хотите ли вы использовать DataFrame или RDD. Если это первое, попробуйте:
spark.read.format("csv").option("header", "false").load("transactions.csv")
Столбцы будут сгенерированы автоматически. Если это последнее, сделайте что-то вроде:
rdd1 = sc.textFile('transactions.csv').map(lambda row: row.split(","))