Вот некоторые дополнительные шаги, которые я должен выполнить, чтобы это полностью заработало.Публикация здесь, так что это может помочь кому-то, столкнувшемуся с той же проблемой, и искать ответ
Вот шаги, Запустите приведенную ниже команду, чтобы применить исправление для исправления модулей fluentd-ds, не показывающих проблему
kubectl apply -f https://raw.githubusercontent.com/gevou/knative-blueprint/master/knative-serving-release-0.2.2-patched.yaml
Убедитесь, что на каждом из ваших узлов есть метка beta.kubernetes.io/fluentd-ds-ready=true:
kubectl get nodes --selector beta.kubernetes.io/fluentd-ds-ready=true
Если вы получили ответ «Нет ресурсов»: выполните следующую командучтобы убедиться, что Fluentd DaemonSet работает на всех ваших узлах:
kubectl label nodes — all beta.kubernetes.io/fluentd-ds-ready=”true”
Выполните следующую команду, чтобы убедиться, что демон демона fluentd-ds готов хотя бы на одном узле:
kubectl get daemonset fluentd-ds --namespace knative-monitoring
Подождите некоторое время и выполните эту команду
kubectl proxy
Перейдите к Kibana UI .Для работы прокси может потребоваться несколько минут.
На странице «Настройка шаблона индекса» введите logstash- * в шаблон индекса и выберите @timestamp из поля Time Filterвведите имя и нажмите кнопку «Создать».
Чтобы создать второй индекс, нажмите кнопку «Создать шаблон индекса» в левой верхней части страницы.Введите zipkin * в шаблон индекса, выберите timestamp_millis в поле Имя фильтра времени и нажмите кнопку «Создать».
Если проблема все еще существует, следуя рекомендациям в комментариях выше, следует исправить ошибку
GET _cat/indices?v
Добавлены сквозные выводы здесь