Вы максимально оптимизировали свою схему? Два очевидных первых шага:
1. Не храните данные, которые не нужны для отображения (идентификаторы полей, метаданные и т. Д.)
... и противоположность этому ...
2. Не индексируйте данные, ТОЛЬКО используются для отображения, но не ищутся. (Дополнительные данные)
И причудливая попытка, которая иногда работает, а иногда нет, - это изменение атрибута add / overwrite на false.
<add overwrite="false">
Это отключает проверку уникального идентификатора (я думаю). Таким образом, если вы делаете полную очистку / замену индекса и уверены, что добавляете только уникальные документы, это может ускорить импорт. Это действительно зависит от размера индекса. Если у вас есть более 2 000 000 документов, и каждый раз, когда индексатор добавляет новый, вы получаете небольшую скорость, не заставляя его проверять, существует ли этот документ. Не самое красноречивое объяснение, но я надеюсь, что оно имеет смысл.
Лично я использую обработчик импорта данных, который устраняет необходимость в промежуточном скрипте. Он просто подключается к БД и высасывает необходимую информацию одним запросом.