Не совсем. Если вы проанализируете QuickSort, то обнаружите, что его эффективность на самом деле зависит от качества сводной диаграммы, и всегда есть случаи, когда по случайности или преднамеренному злонамеренному воздействию O (N ^ 2) будет работать.
Но в целом сложность алгоритма D & C обусловлена сочетанием затрат на решение подзадач и слияние решений. Возвращаясь к вашему вопросу, если стоимость объединения решений имеет порядок решения проблемы с наивным алгоритмом, ваш алгоритм D & C никогда не превзойдет наивный.
Вы можете (почти) всегда решить сложность некоторых алгоритмов D & C, используя теорему Мастера:
https://en.wikipedia.org/wiki/Master_theorem_ (analysis_of_algorithms)
D & C - это просто мета-стратегия для разработки алгоритмов, которые могут или не могут лучше решить определенную проблему; нет никакой гарантии «успеха», то есть более низкой сложности, намного менее низкой.
Например, QuickSort работает в рандомизированном логлиническом времени и имеет приемлемую среднюю производительность для сортировки массивов generic c на стандартном оборудовании, но превосходит другие алгоритмы для конкретных c случаев (таких как целочисленные массивы) или аппаратных архитектур (таких как массивно параллельные компьютеры).