Я пытаюсь тренировать модель, используя BERT. Для параметров BERT я надеюсь, что смогу точно настроить параметры, используя мой собственный набор данных.
Я использую платформу Google Cloud и TPU для ускорения процесса обучения.
Я следую Этот учебник только что заменил следующие строки:
заменено:
tf.estimator.Estimator(
model_fn=model_fn_par,
config=run_config_par,
params={"batch_size": BATCH_SIZE})
С:
tf.contrib.tpu.TPUEstimator(
model_fn=model_fn_par,
config = run_config_par,
use_tpu=FLAGS.use_tpu, train_batch_size = BATCH_SIZE,predict_batch_size=BATCH_SIZE)
Заменено:
run_config_par = tf.estimator.RunConfig(
model_dir=OUTPUT_DIR,
save_summary_steps=SAVE_SUMMARY_STEPS,
save_checkpoints_steps=SAVE_CHECKPOINTS_STEPS)
С:
run_config_par = tf.contrib.tpu.RunConfig(
master=master,
evaluation_master=master,
model_dir=FLAGS.model_dir,
session_config=tf.ConfigProto(
allow_soft_placement=True, log_device_placement=True),
tpu_config=tf.contrib.tpu.TPUConfig(FLAGS.iterations,
FLAGS.num_shards))
И определены следующие параметры:
my_project = MY_PROJECT_NAME
my_zone = 'us-central1-b'
cluster_resolver = tf.contrib.cluster_resolver.TPUClusterResolver(
tpu=[MY_TPU_NAME],
zone=my_zone,
project=my_project)
master = cluster_resolver.get_master()
при выполнении следующей строки:
estimator_par.train(input_fn=train_input_fn_par, max_steps=num_train_steps)
Ноутбук пытается подключиться по следующему адресу 120 раз, но не удается, и возвращает ошибку тайм-аута:
Querying Tensorflow master (grpc://10.240.1.2:8470) for TPU system metadata.
Я создал экземпляр класса TPU и установил тип времени выполнения ноутбука на TPU.
Кто-нибудь знает, почему я не могу подключиться к TPU с помощью ноутбука?