Azure ML предоставляет клиентские библиотеки (например, azureml для Python) для управления наборами данных и развертывания моделей. Насколько я понимаю, пользовательский алгоритм будет сериализован в виде файла Pickle, но я не уверен, что произойдет после этого. Если у меня есть пользовательская модель с глубокой архитектурой NN и я настроил веб-сервис для обучения, а другой - для оценки, мне все еще нужна машина, на которой была разработана модель, для работы веб-сервисов? Я нашел это в документации на azureml, которая была полезна:
Если с функцией не связан исходный файл (например, вы разрабатываете внутри среды REPL), то байт-код функции сериализуется. Если функция ссылается на любые глобальные переменные, они также будут сериализованы с использованием Pickle. В этом режиме все состояние, на которое вы ссылаетесь, должно быть уже определено (например, ваша опубликованная функция должна следовать после любых других функций, которые вы вызываете).
Если функция сохранена на диске, то весь модуль, в котором определена функция, будет сериализован и повторно выполнен на сервере для возврата функции. В этом режиме все содержимое файла сериализуется, и порядок определения функций не имеет значения.
Что если функция использует такую библиотеку, как TensorFlow или Keras? Может кто-нибудь объяснить, что происходит после создания модели Pickle?
Спасибо!