Уточнение субъективных рангов и добавление новых предметов - PullRequest
0 голосов
/ 27 февраля 2020

У меня есть список, оцениваемый пользователем из 100 элементов, ранги не являются абсолютными, поскольку они были получены из сравнения 2 элементов вместе, спрашивая пользователя, который он предпочитает, и очень субъективны. Вы можете проверить больше об этом в этом вопросе: Рейтинг - минимизация парного сравнения

Если я сделаю весь рейтинг несколько раз, у меня будет несколько несовпадающих рангов от первого списка до новый, но они должны отражать общую тенденцию того, что входит в топ-10, 20-30-х годов и так далее. То, что я ищу, - это способ количественно оценить степень уверенности предмета в своем ранге и проверить тех, у кого более широкий диапазон, пока они не станут более уверенными.

Например, если в трех запусках процесса ранжирования элемент 1 был ранжирован в # 2, # 2 и # 4, я буду знать, что он падает вокруг # 3 (означает: 2,6 и std.d 1 , 5), в то время как позиция 2, если она занимает место № 20, № 27 # 40 будет иметь более широкую неизвестную позицию, но будет около # 29 (означает: 29 стандартная оценка 10.15).

Если я использую весь процесс ранжирования два или три раза проще, чем использовать mean и std.d, как в примере ... Проблема: слишком дорого запускать процесс ранжирования снова и снова, мне нужно каждый раз задавать около 300 вопросов, и это это утомительно и требует много времени. А также это не учитывает того, что существует уже созданный пользователем ранжированный список, который не является абсолютным, но напоминает «фактический» рейтинг.

Итак, перефразируя, я хочу использовать уже ранжированный список и сравнить элемент в аналогичном парке шаров для дальнейшего укрепления рангов.

Кроме того, некоторые предметы могут быть добавлены для ранжирования позже, если они предпочтительнее, чем старые 100 предметов, они помещаются в список и последний один вытолкнул. Я думаю, что это легко сделать с помощью бинарного поиска, тестируя новый элемент с # 50, если лучше с # 25, или если хуже с # 75 и т. Д., Это O (log n), что составляет около 5 тестов для n = 100. Является ли это лучшим подходом для добавления новых элементов в ранжированный список? Будет ли это полезно, если использовать 3 элемента для сравнения (# 25 # 75 и новые элементы)?!

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...