flag == "2"
никогда не будет истинным, потому что это объект Spark RDD, а не единичная строка.
Плюс, у Kafka есть непрерывный поток записей, возможно, поэтому просто проверка второго столбца этой первой записи (при условии, что вы вызвали функцию collect ()) тоже не сработает.
Если вы хотите проверить 2 любой строки, вам нужно отфильтровать ее
lines = kafkaStream.map(lambda x: x[1])
flag = lines.map(lambda line: line.split(",")).filter(lambda columns: columns[1] == "2")
flag.pprint()
Если вы хотите просто использовать Kafka с помощью Python и проверять значения записей, вам не нужен Spark