Я переписываю вопрос с нуля, чтобы сделать его более точным и лаконичным, в надежде на некоторую помощь, которая может положить конец моим многочисленным попыткам.
В одном игрушечном примере у меня есть два экземпляра Python на виртуальной машине Google Cloud в одной и той же группе экземпляров (по 2 виртуальных ЦП каждый, у одного из них один графический процессор, но графический процессор не имеет отношения к этому вопросу). Если я хочу запустить распределенный тензорный поток, соединив два экземпляра (чтобы я мог использовать обе виртуальные машины и распределять их по соответствующим процессорам), у меня возникает вопрос: какие серверы я должен использовать в кластере? Правильно ли соединить два экземпляра, спроектировав такой кластер?
ps = [' <external_IP_instance1> : <port_istance1> ']
worker = ['<external_IP_instance2> : <port_istance2> ']
cluster = tf.train.ClusterSpec({'worker': worker, 'ps': ps})
И если да, то должен ли я использовать один из них в tf.Session ("grpc: // ...")
# Create a remote session.
with tf.Session("grpc://<example-address>"):
# ...
как предписано руководством по тензорному потоку https://www.tensorflow.org/guide/graphs в главе "Создание сеанса tf.Session"?
Большое спасибо заранее