Почему MobileNetV2 быстрее, чем MobileNetV1, только на мобильном устройстве? - PullRequest
0 голосов
/ 17 мая 2018

Я изучаю новейшую архитектуру Google MobileNetV2.

Во время учебы я читал эту строку в зоопарке модели Tensorflow Github

'Например, Mobilenet V2 быстрее на мобильных устройствах, чем Mobilenet V1, но немного медленнее на настольных графических процессорах.'

Итак, мой вопрос,

Как это могло быть возможно? Я действительно хочу знать, почему.

Ответы [ 2 ]

0 голосов
/ 28 марта 2019

С https://arxiv.org/abs/1903.08469v1:

"Однако MobileNet V2 использует отделимые по глубине свертки, которые непосредственно не поддерживаются в прошивке графического процессора (библиотека cuDNN). Поэтому MobileNet V2имеет тенденцию быть медленнее, чем ResNet18 в большинстве экспериментальных установок. Обратите внимание, что та же самая проблема дисквалифицирует использование архитектуры DenseNet [12], поскольку она требует эффективной свертки по несмежному тензору, который все еще не поддерживается в cuDNN. "

0 голосов
/ 21 августа 2018

Из опубликованной в * 1001 публикации * MobileNetV2: Перевернутые остатки и линейные узкие места ,

в подтеме № 5: Замечания по внедрению, 5.1.Эффективный вывод памяти;

Инвертированные остаточные узкие места позволяют реализовать реализацию с особенно эффективной памятью, что очень важно для мобильных приложений.(и больше на бумаге)

По мнению команды TensorFlow, его оптимизированный меньший размер также можно использовать как TF Lite.Насколько мы знаем, TF Lite действительно для мобильного использования.На настольном GPU он работает намного медленнее, вероятно, в V2 больше слоев сравнения по сравнению с V1, что имеет смысл, если обучение требует больше времени для завершения.На данный момент мы не занимались обучением и выводом данных на мобильные устройства из-за голода скорости вычислений, который также приводит к голоду мощности.

Надеюсь, я отвечу на вопрос.

...