Параллельное обучение PyTorch с различными поставщиками услуг облачных GPU - PullRequest
0 голосов
/ 19 ноября 2018

Я студент, изучающий курс PyTorch, и хочу максимально использовать мои бесплатные надбавки в Google Colab, FloydHub (возможно, PaperSpace), чтобы ускорить мое обучение.

Как разделить обучение по нескольким поставщикам облачных графических процессоров?

Должно ли базовое оборудование быть однородным или PyTorch может работать с другим аппаратным обеспечением графического процессора?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...