Я пытаюсь использовать локально в R модель тензорного потока с использованием tfdatasets и cloudML, используя обучающие данные, доступные в облачном хранилище Google, без загрузки их. Насколько я знаю, пакет "tfdtasets" должен использовать gs: // URL-адреса напрямую с gs_data_dir ().
Если я укажу в TSScript.R:
data_dir <- gs_data_dir(gs://my-gcp-project/data/)
Когда я запускаю cloud_train (TSScript.R), я получаю ошибку:
Error: 'gs://my-gpc-project/data/train.data.csv' does not exist in current working directory ('/root/.local/lib/python2.7/site-packages/cloudml-model')
Вот мои вопросы:
Возможно ли это как-то сделать, но я делаю некоторые ошибки в своем сценарии?
Если нет, нужно ли устанавливать R в облаке и работать оттуда напрямую?
возможно ли будет обучение данных из bigTable без локальной загрузки?
Спасибо