1) на самом деле MLP, глубокое обучение и нейронные сети - это разные названия одной и той же вещи. Мне нравится думать, что один нейрон nn является логистической регрессией, а не персептроном, но оказывается, что у них обоих одинаковый подход, они подходят к гиперплоскости, разделяющей данные на классы. 2) Когда вы говорите, линейный и нелинейный, я думаю, вы имеете в виду параметрические и непараметрические алгоритмы, первые из них те, которые зависят от количества измерений ваших данных, например, линейные классификаторы, такие как персептрон, SVM, наивныйбайес и т. д., а непараметрический параметр зависит только от количества выборок, таких как knn, дерево решений и т. д. В машинном обучении есть два подхода, и ваши данные скажут вам, какой из них будет правильным, nn непараметрический. подход, так как производительность зависит от количества образцов (чем больше, тем лучше)