Эта модель была обучена производить вложения в 2048-мерном пространстве в классификатор после нее.Нет смысла пытаться уменьшить размерность пространства внедрения, если вы не комбинируете очень сложные и негибкие модели.Если вы просто делаете простое обучение с переносом без ограничений памяти, просто установите новый классификатор (дополнительные слои) поверх него и переобучите после замораживания (или не замещения) всех слоев в исходном Xception.Это должно работать независимо от Xception output_shape.См. keras docs .
Тем не менее, если вам ДЕЙСТВИТЕЛЬНО нужно уменьшить размерность до 1000-й, вам понадобится метод, который сохраняет (или хотя бы пытается сохранить) исходную топологию.пространства встраивания, иначе ваша модель не получит никакой выгоды от трансферного обучения.Взгляните на PCA , SVD или T-SNE .