Давным-давно я помню, что читал, что вы всегда должны использовать наименьший возможный тип для хранения ваших данных, но почти каждый фрагмент кода, который я прочитал, не делает этого.Они часто используют 32-битные целые числа повсюду.
Я слышал обоснование, что 32-битное значение выбирается так же быстро, как 8-битное значение, но процессоры имеют некоторый способ извлечения нескольких меньших значений одновременно.. Правильно?
Так что, если я использую 4 байта вместо 4 целых, разве компилятор не сможет оптимизировать это так, чтобы 4 байта извлекались / сохранялись в одном 32-битном регистре?
Или все это на самом деле просто преждевременная оптимизация, а потенциальный прирост производительности незначителен?