В керасе это официально не предусмотрено.
Но я знаю, что люди очень усердно работают над разработкой этой функции для Кераса.
В нижнем тензорном слое они обеспечивают некоторую экспериментальную функцию. См
https://www.tensorflow.org/guide/distribute_strategy
https://www.tensorflow.org/guide/using_tpu
https://cloud.google.com/ml-engine/docs/tensorflow/using-tpus
"Экспериментальная поддержка облачных TPU в настоящее время доступна для Keras
и колаб. "
В вашей программе Tensorflow вы должны использовать TPUClusterResolver для
соединитесь с сервером TPU gRPC, работающим на виртуальной машине TPU.
TPUClusterResolver возвращает IP-адрес и порт облачного TPU.
Назначение операций TPU Чтобы использовать TPU на машине, вы должны
использовать API TensorFlow TPUEstimator, который наследуется от
API TensorFlow Estimator высокого уровня.
Это может быть не совсем то, что вы хотели, например, локальный кластер TPU. Но вы можете следовать их пути, чтобы начать
Лично я никогда раньше не пробовал со сложным решением для нескольких графических процессоров. В школьных исследованиях мы проводим только простое обучение на одном GPU Вот что я могу найти, чтобы помочь вам
Так что присоединяйтесь к их бета-версии и удачи!