Я пытаюсь сделать следующее с помощью многослойного перцептрона weka:
- Поезд с небольшим подмножеством обучающих экземпляров для части ввода эпох,
- Поезд с целым набором Экземпляров для оставшихся эпох.
Однако, когда я делаю следующее в своем коде, сеть, кажется, сбрасывает себя, чтобы начать с чистого листа во второй раз.
mlp.setTrainingTime(smallTrainingSetEpochs);
mlp.buildClassifier(smallTrainingSet);
mlp.setTrainingTime(wholeTrainingSetEpochs);
mlp.buildClassifier(wholeTrainingSet);
Я что-то не так делаю, или этот алгоритм должен работать в weka?
Если вам нужна дополнительная информация для ответа на этот вопрос, пожалуйста, дайте мне знать. Я новичок в программировании на weka и не уверен, какая информация будет полезна.