Я настраиваю процедуру экспорта / импорта для нашей Bigtable. Мне удалось успешно экспортировать таблицу BigTable в файлы Avro с помощью шаблона задания потока данных «Cloud Bigtable в файлы Avro в облачном хранилище». Однако, когда я пытаюсь импортировать таблицу BigTable с соответствующими файлами экспорта, она выдает мне следующую ошибку:
NOT_FOUND: ошибка при изменении строки
'С \ 035I \ 370 \ 331 \ 314G \ 346 \ 204 \ 003, S \ 333 \ 312Ee0 \ 024K \ \\ 353 000 \ 372 \ 300, \ 232 \ 312 \ 001'
(projects / tvc-project / instances / dave-backup-test / tables / Tabledave):
Запрошенное семейство столбцов не найдено Ошибка мутирующей строки… .с мутациями
[set_cell {family_name: "f" column_qualifier: "last_updated"
timestamp_micros: 1542667887527000 значение: "\ 000 \ 000 \ 001g. + $ Y"
Это произошло, когда таблица не существовала в экземпляре BigTable и после того, как я создал таблицу и соответствующее семейство (упомянутое в ошибке) в экземпляре BigTable. Я создал задание импорта потока данных с помощью шаблона Cloud Dataflow «Avro файлы из облачного хранилища в Cloud Bigtable».
Любая помощь очень ценится.