Мне интересно, как работает предложение HAVING в spark sql без GroupBY или какой-либо агрегатной функции?
1) Можем ли мы полагаться на HAVING без агрегатной функции?
2) Есть ли другой способ фильтрации столбцов, которые генерируются на этом уровне выбора?
Я попытался выполнить приведенный ниже Spark SQL, он работает нормально, но можем ли мы на это положиться?
spark.sql("""
select 1 as a having a=1
""").show()
spark.sql("""
select 1 as a having a=2
""").show()
+---+
| a|
+---+
| 1|
+---+
+---+
| a|
+---+
+---+