В настоящее время я работаю над проектом, который использует Hunspell внутри Node.Цель - кросс-платформенная проверка орфографии, которая правильно работает с кодировкой (node-spellchecker
).
Я должен использовать произвольные словари, которые имеют разные кодировки.Большинство из них имеют SET UTF-8
в файле *.aff
, но другие словари имеют кодировки, такие как SET ISO8859-1
.Я получаю UTF-8 от Node, но мне нужно преобразовать его в кодировку для словаря.Затем мне нужно преобразовать его в обратном порядке, чтобы обработать предложения.
В Linux я могу использовать iconv
для преобразования, но у меня этого нет на стороне Windows.Однако я не хотел бы требовать словари UTF-8 (это работает).
Будем весьма благодарны за любые предложения или подсказки, с чего начать.WideCharToMultiByte
используется за один шаг, но я не смог найти MultiByteToMultiByte
, который ожидал бы.
Вещи, которые у меня есть
const char *from_encoding_name = "UTF-8"; // This can be swapped
const char *to_encoding_name = "ISO8859-1"; // This can be swapped
const char *word = /* möchtzn encoded in UTF-8 */;
Вещи, которые я хочу
const char *dictionaryWord = /* möchtzn encoded in ISO-8859-1 */;
Спасибо.