TensorFlow Serving поддерживает интеграцию с корзинами Amazon S3. Так как DigitalOcean Spaces предоставляют аналогичный интерфейс, можно легко запускать сервировки TensorFlow с DigitalOcean Spaces через Docker, переключая интерфейс S3.
Чтобы сделать его проще для других, я подробно изложил все, что вам нужно знать о запуске сервера ниже:
1. Переменные среды (необязательно)
Определите следующие переменные в вашей среде:
AWS_ACCESS_KEY_ID=...
AWS_SECRET_ACCESS_KEY=...
(Это не является строго необходимым, но определение этих переменных делает ваше развертывание более безопасным, чем жесткое кодирование значений в например, ваш docker -компонентный файл.)
Значения этих переменных вы получаете из DigitalOcean Spaces как часть конфигурации вашего облачного хранилища.
2. Сервер
Вы можете запустить сервер, используя Docker или docker -compose:
2.1. Использование Docker
Вот минимальная команда docker для запуска сервера из командной строки:
docker run \
-p 8500:8500 \
-p 8501:8501 \
-e AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID} \
-e AWS_REGION=nyc3 \
-e AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY} \
-e S3_ENDPOINT=nyc3.digitaloceanspaces.com \
tensorflow/serving \
--model_config_file=s3://your_bucket_name/config/models.config
(Для запуска этого на Windows может потребоваться удалить backtick -newlines сделать эту однострочную команду.)
2.2. Использование docker -compose
Эта docker -compose конфигурация немного более детальна в том, как сконфигурирован сервер, но вы также можете использовать эти опции с простой командой docker
.
version: "3"
services:
tensorflow-servings:
image: tensorflow/serving:latest
ports:
- 8500:8500
- 8501:8501
command:
- --batching_parameters_file=s3://your_bucket_name/config/batching_parameters.txt
- --enable_batching=true
- --model_config_file=s3://your_bucket_name/config/only_toxic.config
- --model_config_file_poll_wait_seconds=300
- --monitoring_config_file=s3://your_bucket_name/config/monitoring_config.txt
- --rest_api_timeout_in_ms=30000
environment:
- AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}
- AWS_LOG_LEVEL=3
- AWS_REGION=nyc3
- AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}
- S3_ENDPOINT=nyc3.digitaloceanspaces.com
Уровни журналов здесь уменьшены, потому что есть много сообщений «Соединение разорвано» и «Нет тела ответа», которые не являются фактическими ошибками. (См. GitHub Issue: AWS lib является многословным при использовании S3 для получения дополнительной информации.)
3. Файлы конфигурации:
Файлы конфигурации выглядят так:
3.1. models.config
model_config_list {
config {
name: 'model_1'
base_path: 's3://your_bucket_name/models/model_1/'
model_platform: "tensorflow"
},
config {
...
},
config {
...
}
}
3.2. batching_parameters.txt (необязательно)
Этот файл определяет рекомендации по обслуживанию TensorFlow; управление процессом пакетной обработки на сервере.
max_batch_size { value: 1024 }
batch_timeout_micros { value: 100 }
num_batch_threads { value: 4 }
pad_variable_length_inputs: true
3.3. Monitoring_config.txt (Необязательно)
Этот файл предоставляет различные статистические данные через конечную точку, указанную ниже.
prometheus_config {
enable: true,
path: "/monitoring/metrics"
}```