У меня была идея для алгоритма нелинейной регрессии, которого я раньше не видел:
Мы подгоняем простую параметрическую функцию, такую как радиальная базисная функция, к данным с использованием градиентного спуска,Мы находим остаток от этого и затем подгоняем функцию к этому, повторяя этот процесс, чтобы уменьшить ошибку и создать коллекцию наложенных функций.(Я предполагаю, что поиск можно убедить, чтобы найти функции, которые в первую очередь соответствуют большинству точек)
Как представлено, этот алгоритм будет более подходящим.Я думаю, что есть несколько способов преодолеть это, но, вероятно, наиболее очевидным является ограничение количества устанавливаемых функций.
Я думаю, что это должно быть быстрее, чем нейронная сеть или сеть rbf, потому что ей не нужно настраивать столько параметров одновременно.Нет сетевой архитектуры на выбор.Он должен быть более точным, чем алгоритм дерева решений, такой как M5, потому что он может более точно следовать непрерывной кривой и не должен выбирать атрибуты для разделения.
Пробовал ли он раньше?Если так, то почему это не удалось?