Привет! Я хочу настроить Kubeflow - сервер логического вывода NVIDIA TensorRT с хранилищем, расположенным в MinIO.
Не знаю, как изменить gs: // inference-server-model-store / tf_model_store для подключения Minio.
ks init my-inference-server
cd my-inference-server
ks registry add kubeflow https://github.com/kubeflow/kubeflow/tree/master/kubeflow
ks pkg install kubeflow/nvidia-inference-server
ks generate nvidia-inference-server iscomp --name=inference-server --image=nvcr.io/nvidia/tensorrtserver:19.04-py3 --modelRepositoryPath=gs://inference-server-model-store/tf_model_store