Я использую Scrapy, библиотеку Python, для очистки веб-сайтов и создания выходных файлов JSON через равные промежутки времени.Для эффективности я хочу сделать массовые апсеты этих json-файлов в Mongodb после завершения каждого паука.
Я считаю, что могу сделать upsert следующим образом:
mongoimport -c <collection> -d <db> --mode merge --file test.json
Однако яХотите знать, каков наилучший способ вызвать этот импорт, когда паук завершил?И как?
Я надеялся, что смогу использовать метод close_spider, описанный здесь: https://doc.scrapy.org/en/latest/topics/item-pipeline.html#writing-your-own-item-pipeline
Однако, поиграв с ним, я обнаружил, что файл json только создается, а не записывается.когда внутри этого метода.
Было бы неплохо, если бы у меня был какой-то способ прослушать новый файл в определенном каталоге, а затем выполнить приведенный выше оператор импорта.
Возможно, все это можно сделать в скрипте bash? S