В приведенной вами статье речь не идет об инициализации веса сети.Это примерно взвешивание двух функций потерь , как показывает следующая ключевая фраза:
Наша процедура обучения следует подходу вариационного автоэнкодера [15], где функция потерьэто сумма двух слагаемых: Реконструкция , LR и Kullback-Leibler Divergence Loss, LKL.
В любом случае, чтобы ответить на ваш вопрос,В нейронной модели есть несколько других случайных факторов, а не только инициализация весов.Для обработки этой случайности, ее дисперсии есть также несколько методов.Некоторые из них обучают сеть несколько раз, как вы упомянули, с разным набором тестов, различными методами перекрестной проверки и многими другими.Вы можете исправить начальное случайное состояние генератора случайных чисел, чтобы каждый процесс настройки гиперпараметров имел одинаковую «случайность» в отношении весов, но вы можете, а иногда и должны делать это на разных этапах процесса обучения, т.е. вы можете использовать начальное число (1234).при инициализации веса, но при получении тестовых наборов вы можете использовать seed (555), чтобы получить аналогичное распределение из двух наборов.