У меня есть набор данных, который при построении графика выглядит как функция плотности ядра, с X в диапазоне от 0 до 1000 и Y в диапазоне от -3000 до +3000. График: График
X на самом деле являются весами Y.
проблема: для каждого набора данных (около 1,2 тыс. записей) весь диапазон от 100 до 200 «уровень Y» считается «проверенным».
У нас есть 2k наборов данных. Наборы данных являются хронологическими и следуют сразу за другим. Цель состоит в том, чтобы определить, какие Y будут проверены для каждого набора данных.
Я пытался использовать creme-ml и многие scykit fx и кормить их (X, Y, набор данных #), но не повезло. Это дало бы мне очки по всем наборам данных, а не в точном диапазоне, как ожидалось.
вопросы, на которые я пытаюсь ответить: 1- какой тип алгоритма наиболее подходит? NN / Случайный лес / GBM ... 2- какие python библиотечные внедрения, такие как al go?
Надеюсь, это делает проблему достаточно ясной. Я кодирую в python
Большое спасибо за вашу помощь!