Как анализировать большие XML-файлы на Google App Engine? - PullRequest
1 голос
/ 21 мая 2010

У меня довольно большой XML-файл размером 1 МБ, который я размещаю на s3. Мне нужно полностью разобрать этот xml-файл в хранилище данных движка приложений.

Я написал простой синтаксический анализатор DOM, который отлично работает локально, но в сети он достигает 30-секундной ошибки и останавливается.

Я попытался уменьшить парсинг xml, сначала загрузив xml-файл в BLOB, а затем парсер, затем проанализировав xml-файл из blob. проблема в том, что капли ограничены 1 Мб. так что не получается.

У меня есть несколько вставок в хранилище данных, которые вызывают сбой в течение 30 секунд. я видел где-то, что они рекомендуют использовать класс Mapper и сохранить какое-то исключение, когда процесс остановился, но, поскольку я - питон n00b, я не могу понять, как реализовать его на синтаксическом анализаторе DOM или SAX (пожалуйста, приведите пример?) о том, как использовать его.

Сейчас я в основном делаю что-то плохое, и я анализирую xml, используя php за пределами движка приложения, и отправляю данные через HTTP-пост в движок приложения, используя собственный API, который работает нормально, но глуп и заставляет меня поддерживать два кода.

не могли бы вы мне помочь?

1 Ответ

0 голосов
/ 21 мая 2010

Для загрузки больших объемов данных обратитесь на страницу помощи Загрузка и выгрузка данных .

...