Я запускаю здесь пример настроения для преобразования тензорного потока.https://github.com/tensorflow/transform/blob/master/examples/sentiment_example.py
Для функции fn ReadAndShuffleData (), определенной в строке 78-98, возможно ли, что аналогичным образом я могу загружать файлы, но из HDFS, а не из GCS?
Я пробовалцелый день с несколькими API лучей (beams-2.8.0), но не удалось, и я думаю, что наиболее перспективным является использование beams.io.hadoopfilesystem.Но этот fn фактически создает файл-объект python и не может быть прочитан с использованием beams.io.ReadFromText () в конвейере луча.
Я также правильно передал HadoopFileSystemPipelineOptions.Кто-нибудь может показать мне направление для решения проблемы или 2/3-строчные фрагменты кода или обходной путь?Большое спасибо!
ps hadoop 2.7.7, лучи 2.8 и данные загружены правильно.
Я думаю, что здесь может не хватить теоретического понимания, любые ссылки будут оценены!