Если вы используете TF, MXNet, Pytorch или Chainer, локальный режим действительно является гораздо более быстрым способом итерации. Еще более быстрое решение состоит в том, чтобы кодировать и отлаживать на своем локальном компьютере набор игрушечных данных, убедившись, что код обучения / прогнозирования работает правильно, прежде чем переносить его в SageMaker. Вы даже можете использовать те же контейнеры, что и в SageMaker, так как они все с открытым исходным кодом, например https://github.com/aws/sagemaker-tensorflow-container.
Если вы используете пользовательский контейнер, то вы также можете работать локально, прежде чем отправить его в ECR и использовать его с SageMaker.
Если вы используете встроенный алгоритм, нет другого выбора, кроме обучения / прогнозирования с экземплярами, управляемыми SageMaker. Однако в этом случае вы не пишете код ML, поэтому риск возникновения проблем меньше:)