Я новичок в машинном обучении.Я следил за некоторыми онлайн-учебниками , где они подгоняют логистическую регрессию к данным MNIST с помощью библиотеки Python Scikit.Показанный по умолчанию решатель liblinear работает медленно на обучающем наборе размером 60 000 изображений, поэтому в руководстве предлагается использовать решатель lbfgs.
Однако, руководство пользователя предполагает, что этот решатель подходит только для небольших наборов данных:
Решатель «lbfgs» рекомендуется использовать для небольших данных-set, но для больших наборов данных его производительность страдает.[9]
Хотя я знаком со статистикой, где небольшой набор данных обычно <100, как я могу обосновать выбор этого решателя здесь, а также как я отношусь к размеру выборки вэтот случай?Должно ли это просто основываться на интуиции / производительности или есть какие-то строгие критерии? </p>