У меня есть сценарий использования, когда мне нужно перенести 70 ТБ данных из DynamoDB в BigTable и Spanner. Таблицы с одним индексом перейдут в BigTable, иначе они перейдут в Spanner.
Я легко справлюсь с историческими нагрузками, экспортировав данные в S3 -> GCS -> Spanner / BigTable. Но сложная часть состоит в том, чтобы обрабатывать возрастающие потоковые нагрузки, одновременно происходящие на DynamoDB. В DynamoDB 300 таблиц.
Как справиться с этой задачей наилучшим образом? Кто-нибудь делал это раньше?