Когда началось изучение модели inception v3 для классификации изображений, использовался следующий учебник: https://github.com/tensorflow/models/blob/master/tutorials/image/imagenet/classify_image.py
, который содержит следующую ссылку для загрузки модели:
DATA_URL = 'http://download.tensorflow.org/models/image/imagenet/inception-2015-12-05.tgz'
или-v3-2015-12-05 версия.Я пытался проверить, соответствует ли эта официальная модель той, которая использовалась в документе Google Inception V3: Переосмысление архитектуры Inception для Computer Vision .Тем не менее, когда я запустил эту модель для изображений проверки 50K ImageNet, были получены следующие результаты точности Top-1:
- 50 000 ILSVRC-2012 Валидация установлена: 77,6% (38 802/50 000)
- 48 238 незарегистрированных примеров ** в наборе проверки ILSVRC-2012: 80,03% (38 607/48 238)
** Обратите внимание, что черный список получен из Devkit ILSVRC2014 .не подходит.
Более того, я обнаружил более новую модель версии 2016-08-28 из здесь , которая показала, что точность Top-1 для начального этапа v3 составляет 78,0%, что соответствуеттакже не соответствует бумаге.
Кроме того, я заметил, что тензор вывода softmax для модели 2015-12-05 имеет размер 1008, а для 2016-08-28 версияимеет размер 1001 для его тензора softmax.
Поэтому мне любопытно задать следующий вопрос:
- Каковы особенности обучения в начале-2015-12-05 (симя classify_image_graph_def.pb) и начало-2016-08-28?Отдельный урожай или основной или что?Есть ли ссылки на результаты топ-1?
- Что является базовым в статье inception_v3?
- Действительно ли обе модели действительно надежны?Почему использование проверочных картинок на обоих из них не дало результатов, указанных в документе?
- Может ли кто-нибудь объяснить термины "эксперимент с одной культурой" и "один кадр"?
Спасибозаранее!