Могу ли я использовать собственную модель тензорного потока в функции Firebase для прогнозирования? - PullRequest
0 голосов
/ 11 января 2020

У меня есть пользовательская модель TensorFlow. Я хотел бы сохранить эту модель в хранилище Firebase и написать функцию Firebase, которая может использовать пользовательскую модель для прогнозирования?

Мне известна эта архитектура , которая может решить мою проблему.

Но проблема этой архитектуры в том, что она использует ML Engine в GCP. Поэтому, чтобы иметь возможность его использовать, я должен обновить мой Spark Plan для Firebase до Blaze Plan, чтобы иметь возможность использовать службы GCP.

В настоящее время я не хочу обновляться по двум причинам (а) все еще развивается, и я не уверен, какую облачную платформу я выберу в конце (б) Для моего приложения эта архитектура будет очень дорогой, потому что у меня есть потоковые данные.

Функции Firebase выполняются в Node.js, поэтому я попытался установить библиотеку TensorFlow javascript для Node. Затем, когда я попытался развернуть функцию firebase с «tf js -node»: «^ 1.5.1» в качестве зависимости, я получил следующую ошибку

⚠  functions[sendPrediction(us-central1)]: Deployment error.
Build failed: {"error": {"canonicalCode": "INVALID_ARGUMENT", "errorMessage": "`npm_install` had stderr output:\nnpm ERR! code E404\nnpm ERR! 404 Not Found: tfjs-node@^1.5.1\n\nnpm ERR! A complete log of this run can be found in:\nnpm ERR!     /builder/home/.npm/_logs/2020-01-11T01_18_50_880Z-debug.log\n\nerror: `npm_install` returned code: 1", "errorType": "InternalError", "errorId": "D17329C9"}}
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...