Я уже некоторое время использую Apache Airflow, и из-за сценария использования мне нужно переписать SparkSubmitOperator в SSHOperator. Мой поток воздуха установлен на AWS EMR, и подача искры должна происходить на той же EMR. Но оператор терпит неудачу с - AirflowException: ошибка оператора SSH: методы аутентификации недоступны
Я использую значение по умолчанию ssh_conn_id = ssh_default и пытался передать как ssh_hook , но, похоже, ничего не работает
даг-файл
hook = SSHHook(ssh_conn_id='ssh_default')
spark_submit = """
spark-submit ....
"""
process = SSHOperator(
task_id='execute_pySpark',
ssh_hook=hook,
command=spark_submit,
do_xcom_push=True
)
воздушный поток
Conn Id: ssh_default
Conn Type: SSH
Host: localhost
Любое понимание приветствуется. Заранее спасибо!