Как установить локальное хранилище моделей - сервер вывода Tensorrt с Minio - PullRequest
0 голосов
/ 23 мая 2019

Привет! Я хочу настроить Kubeflow - сервер логического вывода NVIDIA TensorRT с хранилищем, расположенным в MinIO.

Не знаю, как изменить gs: // inference-server-model-store / tf_model_store для подключения Minio.

ks init my-inference-server
cd my-inference-server
ks registry add kubeflow https://github.com/kubeflow/kubeflow/tree/master/kubeflow
ks pkg install kubeflow/nvidia-inference-server
ks generate nvidia-inference-server iscomp --name=inference-server --image=nvcr.io/nvidia/tensorrtserver:19.04-py3 --modelRepositoryPath=gs://inference-server-model-store/tf_model_store

1 Ответ

0 голосов
/ 29 мая 2019

Похоже, документация по выводу NVIDIA TensorRT для Kubeflow еще не обновлена.

  • Ksonnet считается устаревшим после приобретения Heptio.Следовательно, Kubeflow движется к Kustomize .

  • Если вы планируете использовать Kustomize, вы можете настроить S3 API с Kubeflow, как описано здесь .Вы должны быть в состоянии использовать s3://bucket/object для моделей.

...