Мой вариант использования - запись в DynamoDB из приложения Spark.Поскольку у меня ограниченная емкость записи для DynamoDB и я не хочу увеличивать ее из-за затрат, как я могу ограничить приложение Spark записью с регулируемой скоростью?
Этого можно добиться, сократив разделы до 1, а затем выполнив foreachPartition()
?
У меня уже включено автоматическое масштабирование, но я не хочу его увеличивать.
Пожалуйста, предложите другие способы решения этой проблемы.
РЕДАКТИРОВАТЬ: Это должно быть достигнуто, когда приложение Spark работает в многоузловом кластере EMR.