Я пытаюсь взять массивный HTML-файл и разбить его на разделы.Файл сгенерирован Дженкинсом и выглядит так:
[XXX] text1
[XXX] text2
[YYY] text4
[XXX] text3
[YYY] text5
[ZZZ] text6
...
Я пытался сделать следующее:
my_dict = {}
text, header = re.split('\n\[[A-Za-z]+\]'), re.match('\n\[[A-Za-z]+\]')
for idx, (header, text) in enumerate(zip(header, text)):
try:
my_dict[header] += text
except KeyError:
my_dict[header] = text
print idx
, но это занимает слишком много времени (idx ~ 200K).Могу ли я сделать это как-нибудь быстрее?