В настоящее время я впервые тренирую многократные сверточные нейронные сети с глубоким q-обучением.
Вход представляет собой матрицу 11x11x1, каждая сеть состоит из 4 сверточных слоев с размерами 3x3x16, 3x3x32, 3x3x64, 3x3x64. Я использую шаг = 1 и отступ = 1. За каждым convLayer следует активация ReLU. Выходной сигнал подается в полностью подключенный плотный слой с прямой связью со 128 единицами, а затем в слой LSTM, также содержащий 128 единиц. Два следующих плотных слоя производят отдельные пары преимуществ и стоимости.
Итак, обучение продолжается в течение пары дней, и теперь я понял (после того, как прочитал некоторую связанную статью), я не добавил функцию активации после первого плотного слоя (как в большинстве бумаг). Интересно, значительно ли это добавит мою сеть? Так как я готовлю сети для университета, у меня нет неограниченного времени для обучения из-за крайнего срока моей работы. Однако у меня недостаточно опыта в обучении нейронных сетей, чтобы решить, что делать ... Что вы предлагаете? Я благодарен за каждый ответ!