Строка SHA-512 Кодировка: C # и JAVA результат отличается - PullRequest
7 голосов
/ 24 февраля 2012

Я пытаюсь сравнить две разные строки, закодированные sha512. Но результат другой. Я имею в виду проблему кодирования. Я надеюсь, что вы можете мне помочь.

Это мой код Java:

    MessageDigest digest = java.security.MessageDigest.getInstance("SHA-512"); 
    digest.update(MyString.getBytes()); 
    byte messageDigest[] = digest.digest();

    // Create Hex String
    StringBuffer hexString = new StringBuffer();
    for (int i = 0; i < messageDigest.length; i++) {
        String h = Integer.toHexString(0xFF & messageDigest[i]);
        while (h.length() < 2)
            h = "0" + h;
        hexString.append(h);
    }
    return hexString.toString();

и это мой код C #:

        UnicodeEncoding UE = new UnicodeEncoding();
        byte[] hashValue;
        byte[] message = UE.GetBytes(MyString);

        SHA512Managed hashString = new SHA512Managed();
        string hex = "";

        hashValue = hashString.ComputeHash(message);
        foreach (byte x in hashValue)
        {
            hex += String.Format("{0:x2}", x);

        }
        return hex;

Где проблема? Большое спасибо, ребята

UPDATE

Если я не укажу тип кодировки, то я думаю, что предполагается Unicode. Результат таков (без указания чего-либо):

Java SHA: a99951079450e0bf3cf790872336b3269da580b62143af9cfa27aef42c44ea09faa83e1fbddfd1135e364ae62eb373c53ee4e89c69b54a7d4d268cc2274493a8

C# SHA: 70e6eb559cbb062b0c865c345b5f6dbd7ae9c2d39169571b6908d7df04642544c0c4e6e896e6c750f9f135ad05280ed92b9ba349de12526a28e7642721a446aa

Вместо этого, если я укажу UTF-16 в Java:

Java UTF-16: SHA f7a587d55916763551e9fcaafd24d0995066371c41499fcb04614325cd9d829d1246c89af44b98034b88436c8acbd82cd13ebb366d4ab81b4942b720f02b0d9b

Всегда по-другому !!!

Ответы [ 3 ]

6 голосов
/ 24 февраля 2012

Здесь

digest.update(MyString.getBytes()); 

Вы должны явно указать желаемую кодировку символов в методе String#getBytes(). В противном случае по умолчанию будет использоваться кодировка по умолчанию для платформы, полученная Charset#defaultCharset().

Исправьте это соответственно:

digest.update(MyString.getBytes("UTF-16LE")); 

Это должна быть по крайней мере та же кодировка, которую UnicodeEncoding использует для внутреннего использования.


Не связанный с конкретной проблемой, Java также имеет расширенный цикл for и String#format().

6 голосов
/ 25 февраля 2012

Используемое UnicodeEncoding в C # соответствует кодировке little-endian UTF-16, в то время как "UTF-16" в Java соответствует big-кодировка endian UTF-16.Другое отличие состоит в том, что C # не выводит маркер порядка байтов (называемый «преамбулой» в API), если вы его не запрашиваете, в то время как «UTF-16» в Java генерирует его всегда.Чтобы сделать две программы совместимыми, вы можете сделать так, чтобы Java также использовала UTF-16 с прямым порядком байтов:

digest.update(MyString.getBytes("UTF-16LE"));

Или вы можете переключиться на другую хорошо известную кодировку, такую ​​как UTF-8.

3 голосов
/ 24 февраля 2012

Возможно, причина в том, что вы не указали кодировку, используемую при преобразовании строки в байты, java использует кодировку платформы по умолчанию, а UnicodeEncoding, похоже, использует utf-16.

Edit:

Документация для UnicodeEncoding говорит

Этот конструктор создает экземпляр, который использует порядок байтов с прямым порядком байтов , обеспечивает Unicode знак порядка байтов и не выдает исключение при обнаружении недопустимой кодировки.

Однако для Javas "utf-16" по умолчанию используется порядок байтов с прямым порядком байтов . С кодировками символов лучше быть по-настоящему конкретным, есть конструктор UnicodeEncoding, принимающий два логических порядка байтов, а в java есть также "utf-16le" и "utf-16be". Вы можете попробовать следующее в c #

new UnicodeEncoding(true, false) // big endian, no byte order mark

и в Java

myyString.getBytes("utf-16be")

Или даже лучше использовать "utf-8" / Encoding.UTF8 в обоих случаях, поскольку на не влияют различные метеорологи .

...