Как правильно утилизировать модель ONNX, загруженную с ML.NET - PullRequest
0 голосов
/ 27 марта 2020

Когда я загружаю модель ONNX и использую ее для прогнозирования с помощью следующего кода, все работает хорошо

ITransformer pipeline = _mlContext.Model.Load(_model, out DataViewSchema predictionPipelineSchema);

using (PredictionEngine<TensorData, Prediction> predictionEngine = _mlContext.Model.CreatePredictionEngine<TensorData, Prediction>(pipeline))
{
   Prediction prediction = predictionEngine.Predict(tensorData);
   YH = (np.array(prediction.dense_3) * (maxOut - minOut) + minOut).ToArray<double>();
}

Но если я загружаю другую модель в тот же домен приложений с тем же оператором

ITransformer pipeline = _mlContext.Model.Load(_model, out DataViewSchema predictionPipelineSchema);

Я получаю следующее исключение:

Исключение в InferenceSession

Кажется, что модель неправильно выпущена или ликвидирована, но я не нашел, как это сделать. утилизируйте модель.

...