Производительность нейронной сети в одном наборе данных обычно не будет такой же, как в другом. Изображения в одном наборе данных различить труднее, чем в другом. Практическое правило: если ваши наборы данных ориентир похожи, вероятно, производительность будет аналогичной. Однако это не всегда так: незначительные различия между наборами данных могут привести к значительным различиям в производительности.
Вы можете учесть потенциально различную производительность в двух наборах данных, обучив другую сеть в другом наборе данных. Это даст вам базовый уровень того, что ожидать, когда вы попытаетесь обобщить свою сеть на него.
Вы можете применить свою нейронную сеть, обученную для одного набора классов, к другому набору классов. Есть два основных подхода к этому:
- Трансферное обучение . Здесь последний слой вашей обученной сети заменяется новым (и) слоями, которые обучаются сами по себе для классификации новых изображений. (Используйте для многих классов. Можно использовать для нескольких классов.)
- Всеобучение . Вместо того, чтобы заменить последний слой, добавьте новый слой после него и тренируйте только последние слои. (Используйте для нескольких классов.)
Оба подхода намного быстрее, чем обучение нейронной сети с нуля.