Я работаю над экспериментальным подходом к классификации текста, для которого мне нужно использовать чистый Tensorflow (без Keras). Поскольку я реализую резюме Leave-One-Out, мне нужно сбросить (или переинициализировать, назовите его, как вы, wi sh) все мои обучаемые переменные в одном сеансе - после того, как модель изучит несколько эпох и предскажет, что мои тестовые наблюдения пройдут однако к другому тестовому наблюдению он должен тренироваться полностью с нуля (без знания, полученного из текущего тестового наблюдения, которое ранее также использовалось в обучении).
Я провел несколько всесторонних онлайн-исследований, но ничего не нашел полезно. Есть ли способ для этого или у вас есть предложения, как изменить мой алгоритм?
Заранее спасибо.