В идеале вы хотели бы разделить пауков, которые очищают сайты с разной структурой, таким образом, ваш код будет намного проще поддерживать в долгосрочной перспективе.
Теоретически, если по какой-то причине вы ДОЛЖНЫ проанализировать их в том же пауке вы можете просто собрать URL-адреса, которые вы хотите очистить, и на основе базового пути вы можете вызывать различные методы обратного вызова анализатора. При этом я лично не могу придумать причину, почему вы должны это сделать. Даже если у вас будет такая же структура, вы можете просто повторно использовать scrapy.Item
классы.