Даже практикующие теоретики сложности имеют разногласия по поводу такого рода вещей, поэтому последующее может быть немного субъективным: http://blog.computationalcomplexity.org/2009/05/shaving-logs-with-unit-cost.html
Целью записи big-O является обобщение эффективности алгоритма для читателя. В практическом контексте меня больше всего беспокоит, сколько тактов занимает алгоритм, предполагая, что константа big-O не является ни чрезвычайно малой, ни большой (и игнорируя эффекты иерархии памяти); это модель «удельная стоимость», на которую ссылаются в связанном посте.
Причина подсчета сравнений для алгоритмов сортировки заключается в том, что стоимость сравнения зависит от типа входных данных. Можно сказать, что алгоритм сортировки занимает O (c n log n) циклов, где c - это стоимость сравнения, но в этом случае проще подсчитывать сравнения вместо этого, потому что другой работой, выполняемой алгоритмом, является O (n log n). Существует алгоритм сортировки, который сортирует объединение n отсортированных массивов длины n за n ^ 2 log n шагов и n ^ 2 сравнений; здесь я ожидал бы, что число сравнений и вычислительные затраты будут указаны отдельно, потому что ни одно из них не обязательно доминирует над другим.