Это невозможно;это не похоже на UDF в Hive.
Кодируйте UDF как часть пакета / программы, которую вы отправляете, или в банке, включенной в Spark App, если используете spark-submit.
Однако,
spark.udf.register.udf("...
также необходимо выполнить.Это относится к записным книжкам Databrick и т. Д. UDF необходимо перерегистрировать для каждого Spark Context / Session.