Я хочу запускать задания MAP-REDUCE с помощью hasoop для отдельного Docker-контейнера sequenceiq и отдельного Docker-контейнера с tenorflow. Я не хочу устанавливать оба приложения (TF и HADOOP) в одном контейнере.
Я использую потоковую передачу HADOOP, поэтому идея состоит в том, чтобы передать данные из этапа MAP в другой контейнер докера через поток (оба контейнера находятся на одном хосте), выполнить обучение на фрагменте данных, а затем передать эти результаты в сокращение. РАБОТА.
Есть ли способ смонтировать каталог томов в HDFS-докере как том для хост-машины, а затем смонтировать этот контейнер тома int docker с тензорным потоком.
Или, может быть, вы можете привести примеры, показывающие, как реализовать обработку данных