В чем разница между с плавающей точкой 16 и 8-битным квантованием в модели глубокого обучения - PullRequest
0 голосов
/ 18 октября 2019

В настоящее время я читаю этот сайт, чтобы понять модели распознавания лиц. В этой статье упоминалось о с плавающей запятой 16 и 8-битной версии модели.

Я хотел бы спросить:

  1. В чем разница между двумя из них?
  2. Какое применение различных типов модели DL? В каком случае это нам нужно использовать?

Ссылка на сайт: https://www.learnopencv.com/face-detection-opencv-dlib-and-deep-learning-c-python/

1 Ответ

0 голосов
/ 18 октября 2019
  • В чем разница между двумя из них?

    Как видите, размер модели с 8-битным меньше, чем у FP16, FP16 и 8-битный здесь означаютточность и тип значений веса модели.

  • Какое применение имеют различные типы моделей DL? В каком случае нам нужно это использовать?

    Обычно высокая точность сделает размер модели большим, но может быть более точным, однако, в некоторых случаях, когда нам нужно запустить модель с небольшой задержкой или на небольшом весеПри желании можно уменьшить размер модели с некоторой незначительной потерей точности в несколько раз.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...