Я использую Python и Django, но у меня возникла проблема, вызванная ограничением MySQL. Согласно документации MySQL 5.1 , их реализация utf8
не поддерживает 4-байтовые символы. MySQL 5.5 будет поддерживать 4-байтовые символы, используя utf8mb4
; и когда-нибудь в будущем utf8
также может это поддержать.
Но мой сервер не готов к обновлению до MySQL 5.5, и поэтому я ограничен символами UTF-8, которые занимают 3 байта или меньше.
Мой вопрос: Как отфильтровать (или заменить) символы Юникода, которые занимают более 3 байтов?
Я хочу заменить все 4-байтовые символы на официальные \ufffd
( U + FFFD REPLACEMENT CHARACTER ) или на ?
.
Другими словами, мне нужно поведение, очень похожее на собственный метод Python str.encode()
(при передаче параметра 'replace'
). Редактировать: я хочу поведение, подобное encode()
, но я не хочу на самом деле кодировать строку. Я хочу, чтобы после фильтрации оставалась строка Unicode.
Я не хочу экранировать символ перед сохранением в MySQL, потому что это означало бы, что мне нужно будет удалить все строки, которые я получаю из базы данных, что очень раздражает и неосуществимо.
Смотри также:
[ПРАВИТЬ] Добавлены тесты по предлагаемым решениям
Так что я получил хорошие ответы до сих пор. Спасибо, люди! Теперь, чтобы выбрать один из них, я провел быстрое тестирование, чтобы найти самый простой и быстрый.
#!/usr/bin/env python
# -*- coding: utf-8 -*-
# vi:ts=4 sw=4 et
import cProfile
import random
import re
# How many times to repeat each filtering
repeat_count = 256
# Percentage of "normal" chars, when compared to "large" unicode chars
normal_chars = 90
# Total number of characters in this string
string_size = 8 * 1024
# Generating a random testing string
test_string = u''.join(
unichr(random.randrange(32,
0x10ffff if random.randrange(100) > normal_chars else 0x0fff
)) for i in xrange(string_size) )
# RegEx to find invalid characters
re_pattern = re.compile(u'[^\u0000-\uD7FF\uE000-\uFFFF]', re.UNICODE)
def filter_using_re(unicode_string):
return re_pattern.sub(u'\uFFFD', unicode_string)
def filter_using_python(unicode_string):
return u''.join(
uc if uc < u'\ud800' or u'\ue000' <= uc <= u'\uffff' else u'\ufffd'
for uc in unicode_string
)
def repeat_test(func, unicode_string):
for i in xrange(repeat_count):
tmp = func(unicode_string)
print '='*10 + ' filter_using_re() ' + '='*10
cProfile.run('repeat_test(filter_using_re, test_string)')
print '='*10 + ' filter_using_python() ' + '='*10
cProfile.run('repeat_test(filter_using_python, test_string)')
#print test_string.encode('utf8')
#print filter_using_re(test_string).encode('utf8')
#print filter_using_python(test_string).encode('utf8')
Результаты:
filter_using_re()
совершил 515 вызовов функций за 0,139 секунд ЦП (0,138 секунд ЦП при встроенном sub()
)
filter_using_python()
сделал 2097923 вызовов функций за 3.413 секунд CPU (1.511 секунд CPU при вызове join()
и 1.900 секунд CPU при оценке выражения генератора)
- Я не тестировал с использованием
itertools
, потому что ... хорошо ... это решение, хотя и было интересным, было довольно большим и сложным.
Заключение
Решение RegEx, безусловно, было самым быстрым.