Google Cloud Datastore: массовый импорт с Node.js - PullRequest
0 голосов
/ 25 июня 2018

Мне нужно написать огромное количество сущностей (1,5 миллиона строк из файла .csv) в Google Cloud Datastore.Отчасти вопрос из двух частей:

Могу ли я сделать (или это kind необходимое свойство?):

const item = {
    family: "chevrolet",
    series: "impala",
    data: {
        sku: "chev-impala",
        description: "Chevrolet Impala Sedan",
        price: "20000"
    }
}

тогда, относительно импорта Яне уверен, как это работает.Если я не могу просто сбросить / загрузить / импортировать огромный .json файл, я хотел бы использовать Node.js.Я хотел бы, чтобы у каждой сущности был автоматически сгенерированный универсальный идентификатор.Есть ли асинхронные средства записи?У меня есть скрипт узла, который выдает несколько сотен записей / записей за раз и делает паузу в ожидании записи resolve.... вот что я ищу: импорт обещаний.

1 Ответ

0 голосов
/ 26 июня 2018

Вы можете использовать Apache Beam для импорта данных из файла CSV в Cloud Datastore. Загляните в ветку: Импорт CSV в хранилище данных Google Cloud .

Как работать с сущностями, объясняется в документации здесь .

Экспорт и импорт объектов - это полностью управляемая служба, и вы можете импортировать только объекты, ранее экспортированные с помощью управляемой службы экспорта и импорта.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...