У меня большой набор входных данных типа float16. Мои данные плотные, а не разреженные.
Я использую класс Sklearn LogisticRegression для подгонки модели к этим данным.
Недостаточно памяти во время подбора модели.
I Полагаю, что fit () будет повышен до float32 или float64, в зависимости от используемого решателя и / или версии sklearn.
Есть ли способ, которым я могу избежать этого дополнительного копирования данных и / или масштабирования?
Будет ли масштабирование входных данных самостоятельно до float64, чтобы избежать копирования данных?
Мои предпочтения использовать либлинейный решатель, но рассмотрим lbfgs или сагу.
Я бы предпочел не использовать градиентный спуск.