все
В настоящее время я провожу исследование с использованием многослойного персептрона.
Ранее я запускал это с помощью WEKA, но по разным причинам я перешел на scikit-learn на python.
Я попытался воспроизвести результаты моего прогноза в WEKA для быстрого обучения, поэтому я создал точный персептрон с точно такой же скоростью обучения, импульсом, скрытым слоем и т. Д.
Тем не менее, результаты прогноза получается по-разному для этих обеих платформ. Кто-нибудь может дать мне какое-то объяснение по этому вопросу?
Единственное, что я заметил, это то, что scikit learn использует lbfgs, adam и sgd для оптимизации веса своего соединения, тогда как WEKA использует обратное распространение. Но может ли это быть единственной причиной? или есть другая причина?
С наилучшими пожеланиями