Моя команда переносит несколько разных таблиц DynamoDB в набор из двух таблиц DynamoDB. По сути, мы меняем модель и объединяем большую часть данных в две таблицы (сейчас они распределены по 6).
Мы рассматривали вопрос об использовании потоков DynamoDB и о том, чтобы те запускали лямбду, которая имеет дело с логикой запуска некоторого API, который записывает в новые таблицы. Тем не менее, я пытаюсь выяснить, как работать с старыми данными, так как нам придется перенести все, что уже находится в таблице, в новые таблицы.
Я предполагаю, что один из вариантов - запустить что-то, что сканирует каждый элемент в таблице DynamoDB (их около 100 миллионов), и для каждого вызовите тот же API, который вызывал Lambda, чтобы записать новую таблицу к. Однако я не уверен, как это сканирование старой таблицы обрабатывает, когда у нас также есть новые записи, которые довольно часто записываются в старую таблицу во время миграции.
Есть ли у кого-нибудь советы по выполнению такой миграции и синхронизации?
Спасибо!