Многослойный перцептрон WEKA: тренировка, затем тренировка снова - PullRequest
2 голосов
/ 20 ноября 2010

Я пытаюсь сделать следующее с помощью многослойного перцептрона weka:

  1. Поезд с небольшим подмножеством обучающих экземпляров для части ввода эпох,
  2. Поезд с целым набором Экземпляров для оставшихся эпох.

Однако, когда я делаю следующее в своем коде, сеть, кажется, сбрасывает себя, чтобы начать с чистого листа во второй раз.

mlp.setTrainingTime(smallTrainingSetEpochs);

mlp.buildClassifier(smallTrainingSet);

mlp.setTrainingTime(wholeTrainingSetEpochs);

mlp.buildClassifier(wholeTrainingSet);

Я что-то не так делаю, или этот алгоритм должен работать в weka?

Если вам нужна дополнительная информация для ответа на этот вопрос, пожалуйста, дайте мне знать. Я новичок в программировании на weka и не уверен, какая информация будет полезна.

1 Ответ

2 голосов
/ 21 ноября 2010

Эта тема в списке рассылки weka очень похожа на вашу.

Кажется, именно так должен работать многослойный перцептрон weka.Он предназначен для «группового» ученика, вы пытаетесь использовать его постепенно.Только классификаторы, которые реализуют weka.classifiers.UpdateableClassifier , могут обучаться постепенно.

...