Некоторые из моих загруженных кодов c # включают шестнадцатеричные вычисления.
eg. int length = ((((byte) hexstr[0x10]) & 0x80) > 0) ? 0x10 : 8;
когда я изменяю этот код на обычный десятичный код, подобный этому
int length = ((((byte) hexstr[16]) & 128) > 0) ? 16 : 8;
Это дает то же решение без ошибок.
Он по-прежнему работает правильно.
Поэтому я хотел бы знать, почему в большинстве кодов используется шестнадцатеричная базовая цифра, которую сложнее понять, чем обычная десятичная цифра.
Если кто-нибудь знает это, пожалуйста, дайте мне знать.