Я делал это много раз с ~ 100 экземплярами, но никогда с тысячами экземпляров.
ШАГ 1. Откройте заявку в службу поддержки с помощью AWS.Вам нужно будет одобрить ваш аккаунт, проверить кредит и т. Д. Мои клиенты - это очень крупные компании, поэтому для них процесс получения кредита и одобрения прост.Если вы маленький парень, я не знаю.
ШАГ 2: Подумайте над дизайном вашего VPC и с тем, как вы будете решать это множество случаев.Если 5 экземпляров, проходящих через шлюз NAT, однозначно, но сотня систем поставит интернет-соединение на колени.
ШАГ 3: Подумайте о требуемой пропускной способности сети.Вам нужны группы размещения или высокоскоростное подключение к интрасети или Интернету?
ШАГ 4: будьте готовы к тому, что вы не можете запустить все экземпляры с определенным типом экземпляра (ошибка емкости недоступна).У вас есть выбор экземпляров, к которым вы можете обратиться.
ШАГ 5: Создайте свое собственное программное обеспечение, я использую Python для запуска экземпляров, выполнения обновлений, установки программного обеспечения и т. Д. Затем вы можете опросить экземпляры, используяBoto3 EC2 API, чтобы определить, когда все экземпляры работают.Продолжительность времени для 1000 экземпляров не будет сильно отличаться от 1 экземпляра.
Теперь для реального мира.Если ваша работа занимает 1000 часов, запуск 1000 экземпляров не сократит ее до 1 часа, если у вас не будет действительно масштабируемого программного обеспечения с минимальным необходимым межмашинным обменом данными.Когда вы выйдете за пределы 10 систем, пропускная способность сети и накладные расходы на связь станут проблемой.Несмотря на огромные ресурсы AWS, запуск 1000 экземпляров EC2 за один раз одним клиентом не является распространенным случаем запуска.
Я бы также НЕ запускал 1000 экземпляров, чтобы сократить время обработки до 10 минут.Ваши экземпляры могут подключаться к сети, обновляться, синхронизироваться и т. Д. В течение 10 минут. Это означает, что вы будете тратить 50% своего бюджета на время ожидания.Для действительно больших работ сегодня мы предпочитаем использовать Hadoop / Spark, где реалистично масштабирование до сотен машин.