нужна помощь с async / await.
в настоящее время учатся https://github.com/tensorflow/tfjs-converter.
и я озадачен этой частью кода (загрузка преобразованной в Python сохраненной модели js для использования в браузере):
import * as tf from '@tensorflow/tfjs';
import {loadFrozenModel} from '@tensorflow/tfjs-converter';
/*1st model loader*/
const MODEL_URL = './model/web_model.pb';
const WEIGHTS_URL = '.model/weights_manifest.json';
const model = await loadFrozenModel(MODEL_URL, WEIGHTS_URL);
/*2nd model execution in browser*/
const cat = document.getElementById('cat');
model.execute({input: tf.fromPixels(cat)});
Я заметил, что он использует es6 (импорт / экспорт) и es2017 (async / await), поэтому я использовал babel с babel-preset-env, babel-polyfill и babel-plugin-transform-runtime. Я использовал webpack, но переключился на Parcel в качестве моего упаковщика (как это было предложено разработчиками tenorflow.js). В обоих пакетах я получаю сообщение об ошибке, заключающееся в том, что ожидание должно быть заключено в асинхронную функцию, поэтому я завернул первую часть кода в асинхронную функцию, надеясь получить обещание.
async function loadMod(){
const MODEL_URL = './model/web_model.pb';
const WEIGHTS_URL = '.model/weights_manifest.json';
const model = await loadFrozenModel(MODEL_URL, WEIGHTS_URL);
}
loadMod();
теперь оба строителя говорят, что «ожидание - зарезервированное слово». vscode eslinter говорит, что loadMod (); имеет Обещание недействительным. (так что обещание не было выполнено или было отклонено?)
Я пытаюсь ссылаться на файлы модели javascript, используя относительный путь, или это неправильно? Я должен «обслуживать» модель ML из облака? Это не может быть от относительного локального пути?
Любые предложения будут высоко оценены. Спасибо!