Я обучаю модель Engli sh -вьетнамского NMT с использованием fairseq.
fairseq сообщает, что обучает модель на 1 графическом процессоре. Однако, когда я проверяю графический процессор, кажется, что он не используется, и процесс обучения очень медленный.
снимок экрана: использование графического процессора
Обучение на 63k корпусе предложений: Эпоха занимает около 1 часа. (модель: fconv)
Обучение на 233 тыс. предложений. Эпоха занимает около 4 часов. (модель: трансформатор)
снимок экрана: журнал консоли
Мой графический процессор - NVIDIA GeForce GTX 1050, а версия CUDA - 10.2.
Успешно ли я тренирую модель на GPU?
Рад видеть ваши решения / предложения.