Работая на Storm Crawler 1.13, успешно запустил сканер на веб-сайте, и одна из страниц была удалена на веб-сайте и в соответствии с crawler-conf при следующем повторном посещении индекса состояния, обновленного как FETCH_ERROR для отсутствующего URL, и когда я проверяю основной индекс, запись с этим URL все еще там.Как я могу удалить эту запись автоматически всякий раз, когда появляется FETCH_ERROR .