У меня есть требование импортировать 50К (это число меняется) записей в нашей базе данных, применяя бизнес-логику к каждой записи (или большую часть записей), я планирую реализовать это, разбив набор записей на несколько кусков по 500 записей и отправив сообщения в очередь hornetq, где MDB обрабатывает порцию записей. Это решение помогает мне распределить процесс по нескольким процессам благодаря наличию пула MDB из 30 потоков, а также, поскольку я использую постоянные очереди, мои сообщения сохраняются и, следовательно, в случае сбоя весь процесс не затрагивается. Во-первых, я хотел бы знать, является ли это идеальным подходом, и, во-вторых, поскольку мы полностью находимся в AWS, существуют ли решения (или комбинации) в AWS, которые предназначены для обработки подобных приложений.