Вы можете сделать любой из них.
Но лучшим решением для этого будет сделать весь трафик c go через балансировщик нагрузки, предполагая, что это какой-то прокси-сервер с возможностями туннелирования и открытыми соединениями. через IP балансировщика нагрузки на вашей внешней системе. Потому что, представьте себе, прямо сейчас у вас может быть дюжина узлов, на которых работает 100 микросервисов, и теперь вы открыли свою группу безопасности внешней системы, чтобы разрешить трафик c из дюжины.
Но в следующие несколько месяцев вы могли бы go от 12 до 100 узлов и накладные расходы на обновление группы безопасности вашей внешней системы при каждом добавлении узла в DigitalOcean.
Но вы также можете попробовать другой подход, добавив автономный прокси-сервер и маршрутизируя трафик c через него из ваших модулей. Нечто подобное [this] ( Исходящие вызовы Kubernetes на внешнюю конечную точку с белым списком IP ).
Просто примечание, это не просто эти опции, есть несколько способов, которыми можно добиться этого, один другой подход будет связывать NAT IP со всеми вашими узлами, и сохранение каждого узла в частной сети также будет работать. Все зависит от того, как вы хотите его настроить, и от цели системы, которую вы планируете достичь.
Надеюсь, это поможет.