тензор потока: как организовать распределенное обучение с помощью tf.estimator.train_and_evaluate - PullRequest
0 голосов
/ 13 июня 2018

см. Пример tf.estimator.train_and_evaluate на https://www.tensorflow.org/api_docs/python/tf/estimator/train_and_evaluate Я хочу, чтобы пример запускался распределенным, но, похоже, не работает, что учебный процесс не начался в распределенном режиме.

мой вопрос: что я могу сделать для того, чтобы исходный код запускался распределенным?

платформа: система: Ubuntu 18 тензор потока: v1.8

следующий журналмой исходный код и шаг операции:

1 исходный код:

import tensorflow as tf
import os
import sys
import json
import logging
import numpy as np
x = np.random.rand(1000)
y = np.random.choice([0,1],1000)
def data_input():
    ret={}
    ret['x'] = x   
    y_batch = y 
    print "data"
    return ret,y_batch  
tf.logging.set_verbosity(tf.logging.DEBUG)
my_feature_columns=[]
v_feature_column = tf.feature_column.numeric_column(key="x",shape=[])
my_feature_columns.append(v_feature_column)

estimator = tf.estimator.DNNClassifier(
    feature_columns=my_feature_columns,
    hidden_units=[1024, 512, 256],
    model_dir='/home/clxman/tf/')


train_spec = tf.estimator.TrainSpec(input_fn=lambda:data_input(), max_steps=1000)
eval_spec = tf.estimator.EvalSpec(input_fn=lambda:data_input())

tf.estimator.train_and_evaluate(estimator, train_spec, eval_spec)

2 запустить его в одном режиме, в котором поезд работает хорошо.просматривая следующий журнал

clxman @ clxman-VirtualBox: ~ / test $ python test_c.py

/home/clxman/.local/lib/python2.7/site-packages/h5py/__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`.
  from ._conv import register_converters as _register_converters

INFO:tensorflow:Using default config.

INFO:tensorflow:Using config: {'_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_task_type': 'worker', '_train_distribute': None, '_is_chief': True, '_cluster_spec': <tensorflow.python.training.server_lib.ClusterSpec object at 0x7f4e37077890>, '_evaluation_master': '', '_save_checkpoints_steps': None, '_keep_checkpoint_every_n_hours': 10000, '_service': None, '_num_ps_replicas': 0, '_tf_random_seed': None, '_master': '', '_num_worker_replicas': 1, '_task_id': 0, '_log_step_count_steps': 100, '_model_dir': '/home/clxman/tf/', '_global_id_in_cluster': 0, '_save_summary_steps': 100}

INFO:tensorflow:Running training and evaluation locally (non-distributed).

INFO:tensorflow:Start train and evaluate loop. The evaluate will happen after 600 secs (eval_spec.throttle_secs) or training is finished.
data
INFO:tensorflow:Calling model_fn.

DEBUG:tensorflow:Transforming feature_column _NumericColumn(key='x', shape=(), default_value=None, dtype=tf.float32, normalizer_fn=None).

INFO:tensorflow:Done calling model_fn.

INFO:tensorflow:Create CheckpointSaverHook.

INFO:tensorflow:Graph was finalized.

2018-06-12 23:50:25.702344: I tensorflow/core/platform/cpu_feature_guard.cc:140] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2


INFO:tensorflow:Running local_init_op.

INFO:tensorflow:Done running local_init_op.

**INFO:tensorflow:Saving checkpoints for 1 into /home/clxman/tf/model.ckpt**.

**INFO:tensorflow:loss = 693.219, step = 1**


INFO:tensorflow:global_step/sec: 8.12489


**INFO:tensorflow:loss = 691.08575, step = 101 (12.309 sec)**

INFO:tensorflow:global_step/sec: 8.11321

INFO:tensorflow:loss = 690.9834, step = 201 (12.325 sec)

3 config TF_CONFIG и запуск сценария из командной строки соответственно

**chief session command line:**

clxman@clxman-VirtualBox:~/test$ TF_CONFIG='{
    "cluster": {
        "chief": ["192.168.6.99.123:2222"],
        "worker": ["192.168.6.99.123:2300"],
        "ps": ["192.168.6.99.123:2400"]
    },
    "task": {"type": "chief", "index": 0}
}'  python test_c.py

**ps session comand line:**

clxman@clxman-VirtualBox:~/test$ TF_CONFIG='{
    "cluster": {
        "chief": ["192.168.6.99.123:2222"],
        "worker": ["192.168.6.99.123:2300"],
        "ps": ["192.168.6.99.123:2400"]
    },
    "task": {"type": "ps", "index": 0}
}'  python test_c.py

**worker session comand line:**

clxman@clxman-VirtualBox:~/test$ TF_CONFIG='{
    "cluster": {
        "chief": ["192.168.6.99.123:2222"],
        "worker": ["192.168.6.99.123:2300"],
        "ps": ["192.168.6.99.123:2400"]
    },
    "task": {"type": "worker", "index": 0}
}'  python test_c.py

**evaluator session command line:**

clxman@clxman-VirtualBox:~/test$ TF_CONFIG='{
    "cluster": {
        "chief": ["192.168.6.99.123:2222"],
        "worker": ["192.168.6.99.123:2300"],
        "ps": ["192.168.6.99.123:2400"]
    },
    "task": {"type": "evaluator", "index": 0}
}'  python test_c.py

4 Следующий журнал из главного занятия, мы видим, что тренировочный процесс не начался.строка «данные» означает, что процесс обучения вызвал функцию data_input, которая передает данные поезда

INFO:tensorflow:Using default config.

INFO:tensorflow:Using config: {'_save_checkpoints_secs': 600, '_session_config': None, '_keep_checkpoint_max': 5, '_task_type': u'chief', '_train_distribute': None, '_is_chief': True, '_cluster_spec': <tensorflow.python.training.server_lib.ClusterSpec object at 0x7fc0024f18d0>, '_evaluation_master': '', '_save_checkpoints_steps': None, '_keep_checkpoint_every_n_hours': 10000, '_service': None, '_num_ps_replicas': 1, '_tf_random_seed': None, '_master': u'grpc://192.168.6.99.123:2222', '_num_worker_replicas': 2, '_task_id': 0, '_log_step_count_steps': 100, '_model_dir': '/home/clxman/tf/', '_global_id_in_cluster': 0, '_save_summary_steps': 100}

INFO:tensorflow:Start Tensorflow server.

2018-06-12 23:23:25.694865: I tensorflow/core/platform/cpu_feature_guard.cc:140] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2

2018-06-12 23:23:25.697065: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:215] Initialize GrpcChannelCache for job chief -> {0 -> localhost:2222}

2018-06-12 23:23:25.697159: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:215] Initialize GrpcChannelCache for job ps -> {0 -> 192.168.6.99.123:2400}

2018-06-12 23:23:25.697180: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:215] Initialize GrpcChannelCache for job worker -> {0 -> 192.168.6.99.123:2300}

2018-06-12 23:23:25.698882: I tensorflow/core/distributed_runtime/rpc/grpc_server_lib.cc:332] Started server with target: grpc://localhost:2222

**data**

INFO:tensorflow:Calling model_fn.

DEBUG:tensorflow:Transforming feature_column _NumericColumn(key='x', shape=(), default_value=None, dtype=tf.float32, normalizer_fn=None).

INFO:tensorflow:Done calling model_fn.

INFO:tensorflow:Create CheckpointSaverHook.

INFO:tensorflow:Graph was finalized.

Ответы [ 2 ]

0 голосов
/ 13 ноября 2018

Вы должны указать стратегию распространения в RunConfig вашего оценщика, как описано в этой документации:

https://github.com/tensorflow/tensorflow/tree/r1.8/tensorflow/contrib/distribute.

Однако я боюсь, что вы ищете параметрСтратегия сервера (так как у вас есть задача «ps»), которая недоступна в TF 1.8.

Обратите внимание, что в последних версиях TF этот API был изменен, а документация гораздо более полная:

https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/distribute/README.md#example

0 голосов
/ 24 сентября 2018

Вам нужно запустить tf.estimator.RunConfig ().Кроме того, вам нужно установить переменную окружения, TF_CONFIG, чтобы указывать на текст json, который определяет настройки вашего кластера.

Проверьте https://github.com/GoogleCloudPlatform/cloudml-samples/blob/master/census/estimator/trainer/task.py для получения дополнительной информации.

...