++a;
a+=1;
a=a+1;
Какие обозначения мы должны использовать? Зачем?
Мы предпочитаем первую версию, ++ a , потому что она более прямо выражает идею приращения. Он говорит о том, что мы хотим сделать (с приращением a), а не о том, как это сделать.

(добавьте 1 к a, а затем запишите результат в a).
В общем, способ сказать что-то в программе лучше, чем другой, если он более прямо выражает идею.
Результат является более кратким и легким для понимания читателем. Если бы мы написали a = a + 1, читатель мог легко задаться вопросом, действительно ли мы хотели увеличить на 1.
Может быть, мы просто опечатали a = b + 1 , a = a + 2 или даже a = a – 1 .
С ++ a возможностей для таких сомнений гораздо меньше.
Примечание. Это логический аргумент о читабельности и корректности, а не аргумент об эффективности. Вопреки распространенному мнению.
Современные компиляторы имеют тенденцию генерировать точно такой же код из a = a + 1 , что и для ++ a , когда a является одним из встроенных типов.