У меня есть задание Spring-Batch, которое я запускаю с контроллера Spring MVC. Контроллер получает загруженный файл от пользователя, и задание должно обрабатывать файл:
@RequestMapping(value = "/upload")
public ModelAndView uploadInventory(UploadFile uploadFile, BindingResult bindingResult) {
// code for saving the uploaded file to disk goes here...
// now I want to launch the job of reading the file line by line and saving it to the database,
// but I want to launch this job in a new thread, not in the HTTP request thread,
// since I so not want the user to wait until the job ends.
jobLauncher.run(
jobRegistry.getJob(JOB_NAME),
new JobParametersBuilder().addString("targetDirectory", folderPath).addString("targetFile", fileName).toJobParameters()
);
return mav;
}
Я попробовал следующую конфигурацию XML:
<job id="writeProductsJob" xmlns="http://www.springframework.org/schema/batch">
<step id="readWrite">
<tasklet task-executor="taskExecutor">
<chunk reader="productItemReader" writer="productItemWriter" commit-interval="10" />
</tasklet>
</step>
</job>
<bean id="taskExecutor"
class="org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor">
<property name="corePoolSize" value="5" />
<property name="maxPoolSize" value="5" />
</bean>
... но похоже, что многопоточность происходит только в рамках самой работы. То есть, поток контроллера ожидает, пока работа не закончится, и выполнение задачи обрабатывается несколькими потоками (что хорошо, но не главное, что я хотел). Главное, что я хотел - это то, что задание будет запущено в отдельном потоке (или потоках), а поток контроллера продолжит свое выполнение, не дожидаясь окончания потоков задания.
Есть ли способ добиться этого с помощью Spring-batch?