У меня есть каталог с текстовыми файлами. Я хочу обрабатывать файлы и записывать данные в БД. Я сделал это с помощью MultiResourceItemReader
.
У меня есть сценарий, как всякий раз, когда файл приходит, первым шагом является сохранение информации о файле, например, имя файла, количество записей в файле в таблице журнала (пользовательская таблица).
Поскольку я использовал MultiResourceItemReader
, он загружает все файлы один раз, а код, который я написал, выполняется один раз при запуске сервера. Я пытался с getCurrentResource()
методом, но он возвращает ноль.
Пожалуйста, обратитесь ниже код.
NetFileProcessController. java
@Slf4j
@RestController
@RequestMapping("/netProcess")
public class NetFileProcessController {
@Autowired
private JobLauncher jobLauncher;
@Autowired
@Qualifier("netFileParseJob")
private Job job;
@GetMapping(path = "/process")
public @ResponseBody StatusResponse process() throws ServiceException {
try {
Map<String, JobParameter> parameters = new HashMap<>();
parameters.put("date", new JobParameter(new Date()));
jobLauncher.run(job, new JobParameters(parameters));
return new StatusResponse(true);
} catch (Exception e) {
log.error("Exception", e);
Throwable rootException = ExceptionUtils.getRootCause(e);
String errMessage = rootException.getMessage();
log.info("Root cause is instance of JobInstanceAlreadyCompleteException --> "+(rootException instanceof JobInstanceAlreadyCompleteException));
if(rootException instanceof JobInstanceAlreadyCompleteException){
log.info(errMessage);
return new StatusResponse(false, "This job has been completed already!");
} else{
throw new ServiceException(errMessage);
}
}
}
}
BatchConfig. java
@Configuration
@EnableBatchProcessing
public class BatchConfig {
private JobBuilderFactory jobBuilderFactory;
@Autowired
public void setJobBuilderFactory(JobBuilderFactory jobBuilderFactory) {
this.jobBuilderFactory = jobBuilderFactory;
}
@Autowired
StepBuilderFactory stepBuilderFactory;
@Value("file:${input.files.location}${input.file.pattern}")
private Resource[] netFileInputs;
@Value("${net.file.column.names}")
private String netFilecolumnNames;
@Value("${net.file.column.lengths}")
private String netFileColumnLengths;
@Autowired
NetFileInfoTasklet netFileInfoTasklet;
@Autowired
NetFlatFileProcessor netFlatFileProcessor;
@Autowired
NetFlatFileWriter netFlatFileWriter;
@Bean
public Job netFileParseJob() {
return jobBuilderFactory.get("netFileParseJob")
.incrementer(new RunIdIncrementer())
.start(netFileStep())
.build();
}
public Step netFileStep() {
return stepBuilderFactory.get("netFileStep")
.<NetDetailsDTO, NetDetailsDTO>chunk(1)
.reader(new NetFlatFileReader(netFileInputs, netFilecolumnNames, netFileColumnLengths))
.processor(netFlatFileProcessor)
.writer(netFlatFileWriter)
.build();
}
}
NetFlatFileReader. java
@Slf4j
public class NetFlatFileReader extends MultiResourceItemReader<NetDetailsDTO> {
public netFlatFileReader(Resource[] netFileInputs, String netFilecolumnNames, String netFileColumnLengths) {
setResources(netFileInputs);
setDelegate(reader(netFilecolumnNames, netFileColumnLengths));
}
private FlatFileItemReader<NetDetailsDTO> reader(String netFilecolumnNames, String netFileColumnLengths) {
FlatFileItemReader<NetDetailsDTO> flatFileItemReader = new FlatFileItemReader<>();
FixedLengthTokenizer tokenizer = CommonUtil.fixedLengthTokenizer(netFilecolumnNames, netFileColumnLengths);
FieldSetMapper<NetDetailsDTO> mapper = createMapper();
DefaultLineMapper<NetDetailsDTO> lineMapper = new DefaultLineMapper<>();
lineMapper.setLineTokenizer(tokenizer);
lineMapper.setFieldSetMapper(mapper);
flatFileItemReader.setLineMapper(lineMapper);
return flatFileItemReader;
}
/*
* Mapping column data to DTO
*/
private FieldSetMapper<NetDetailsDTO> createMapper() {
BeanWrapperFieldSetMapper<NetDetailsDTO> mapper = new BeanWrapperFieldSetMapper<>();
try {
mapper.setTargetType(NetDetailsDTO.class);
} catch(Exception e) {
log.error("Exception in mapping column data to dto ", e);
}
return mapper;
}
}
Я застрял в этом сценарии, Любая помощь приветствуется