Вы не можете отправлять данные напрямую в Spark, если это не потоковое воспроизведение. Если это традиционный Spark с пакетным выполнением, то Spark необходимо прочитать данные из некоторого типа хранилища, такого как HDFS. Цель ExecuteSparkInteractive - запустить задание Spark для запуска данных, доставленных в HDFS.
Если вы хотите перейти к потоковому маршруту, есть два варианта ...
1) Непосредственная интеграция NiFi с потоковой передачей Spark
https://blogs.apache.org/nifi/entry/stream_processing_nifi_and_spark
2) Используйте Kafka для интеграции NiFi и Spark
NiFi пишет в тему Кафки, Spark читает из темы Кафки, Spark пишет обратно в тему Кафки, NiFi читает из темы Кафки. Этот подход, вероятно, будет лучшим вариантом.