Я пытаюсь синхронизировать определенные журналы из kubernetes на s3, а затем переместить обновление, чтобы просмотреть его, насколько это возможно?
ИМХО вы хотели бы иметь механизм "тройника" для перенаправления потоков журнала в каждый пункт назначения, поскольку эти два пункта назначения имеют совершенно разные механизмы доступа (и повторных попыток!). AFAIK kubernetes допускает неограниченное (?) Количество соединений kubectl logs -f
, поэтому вам нужен один процесс, который подключается к модулю и передает эти байты в браузер, а также отдельный процесс, который подключает и передает байты на S3. Вы могли бы иметь один процесс, который выполняет оба этих действия, но при этом существует риск, что одна ошибка уничтожит оба потока, что сделает всех несчастными.
Я использовал kubectl logs -f
в качестве «ярлыка» для этого ответа, но я абсолютно уверен, что для этого есть конечная точка API, я просто не помню, что это заведомо - kubectl --v=100 logs -f $pod
покажет это вам .