Я создал и передал задание cron для развертывания, но когда я вижу, что оно работает в OpenShift, я получаю следующее сообщение об ошибке:
Невозможно определить, нужно ли запускать задание: слишком многие пропустили время начала (> 100). Установите или уменьшите значение .spe c .startingDeadlineSeconds или проверьте наклон часов.
Из этого я понимаю, что задание не удалось запустить. Но я не понимаю, почему это терпит неудачу. Почему это не записано где-то? - или, если это так, где я могу его найти?
Контроллер CronJob будет продолжать пытаться запустить задание в соответствии с самым последним расписанием, но продолжает отказывать, и, очевидно, он делал это> 100 раз.
Я проверил синтаксис моей работы cron, которая не выдает никаких ошибок. Кроме того, если есть какие-либо сообщения о синтаксисе, мне даже не разрешено делать pu sh.
Кто-нибудь знает, что не так?
my Cron Job:
apiVersion: batch/v1beta1
kind: CronJob
metadata:
name: my-cjob
labels:
job-name: my-cjob
spec:
schedule: "*/5 * * * *"
jobTemplate:
# activeDeadlineSeconds: 180 # 3 min <<- should this help and why?
spec:
template:
metadata:
name: my-cjob
labels:
job-name: my-cjob
spec:
containers:
- name: my-cjob
image: my-image-name
restartPolicy: OnFailure
Или я должен использовать startingDeadlineSeconds
? Кто-нибудь, кто нажал на это сообщение об ошибке и нашел решение?
Обновить в соответствии с комментарием
При запуске kubectl get cronjob
я получаю следующее:
NAME SCHEDULE SUSPEND ACTIVE LAST SCHEDULE AGE
my-cjob */5 * * * * False 0 <none> 2d
При запуске kubectl logs my-cjob
Я получаю следующее:
Error from server (NotFound): pods "my-cjob" not found
При запуске kubectl describe cronjob my-cjob
Я получаю следующее:
Error from server (NotFound): the server could not find the requested resource
При запуске kubectl logs <cronjob-pod-name>
Я получаю много строки кода ... Мне очень трудно понять и разобраться ..
При запуске kubectl describe pod <cronjob-pod-name>
я тоже получаю много, но сортировать это намного проще. Что-нибудь конкретное c?
Запуск kubectl get events
Я получаю много, но я думаю, что это связано:
LAST SEEN FIRST SEEN COUNT NAME KIND SUBOBJECT TYPE REASON SOURCE MESSAGE
1h 1h 2 xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx Pod spec.containers{apiproxy} Warning Unhealthy kubelet, xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx Liveness probe failed: Get http://xxxx/xxxx: dial tcp xxxx:8080: connect: connection refused