Вопрос предполагает, что два алгоритма тратят T_A (n) = 0,0001n ^ 2 и T_B (n) = 50√n, микросекунды соответственно, для размера задачи n.Вопрос состоит в том, при каком размере входного алгоритма алгоритм A станет лучше, чем B. Как мне это найти?
Я нашел похожий вопрос с решением, которое я до конца не понимаю.Время выполнения алгоритмов из аналогичного вопроса: T_A = 0,1n ^ 2logn (база 2) и T_B = 2,5n ^ 2
Это решается следующим образом:
2.5n^2 < 0.1n^2 log2 n
2.5 < 0.1 log2 n
25 < log2 n
2^25 < n
Следовательно, алгоритм2 лучше, когда n больше 2 ^ 25