Я работаю на EKS.После попытки запустить задание с недействительным yaml, похоже, он не отпускает плохой yaml и продолжает выдавать мне одно и то же сообщение об ошибке даже после исправления файла.
- Я успешно запустил задание.
- Я добавил переменную окружения с логическим значением в разделе
env
, которая вызвала эту ошибку: Error from server (BadRequest): error when creating "k8s/jobs/create_csv.yaml": Job in version "v1" cannot be handled as a Job: v1.Job: Spec: v1.JobSpec: Template: v1.PodTemplateSpec: Spec: v1.PodSpec: Containers: []v1.Container: v1.Container: Env: []v1.EnvVar: v1.EnvVar: Value: ReadString: expects " or n, but found t, error found in #10 byte of ...|,"value":true},{"nam|..., bigger context ...|oduction"},{"name":"RAILS_LOG_TO_STDOUT","value":true},{"name":"AWS_REGION","value":"us-east-1"},{"n|...
- Iизменил значение на строку
yes
, но сообщение об ошибке продолжает отображать оригинал, плохой yaml. - В
kubectl get jobs --all-namespaces
- нет заданий, поэтому я не знаюгде этот старый yaml будет прятаться.
Я думал, что это может быть из-за того, что у меня imagePullPolicy
не установлено Always
, но это происходит, даже если я бегукоманда kubectl
локально.
Ниже приведен мой файл определения задания:
apiVersion: batch/v1
kind: Job
metadata:
generateName: create-csv-
labels:
transformer: AR
spec:
template:
spec:
containers:
- name: create-csv
image: my-image:latest
imagePullPolicy: Always
command: ["bin/rails", "create_csv"]
env:
- name: RAILS_ENV
value: production
- name: RAILS_LOG_TO_STDOUT
value: yes
- name: AWS_REGION
value: us-east-1
- name: AWS_ACCESS_KEY_ID
valueFrom:
secretKeyRef:
name: aws
key: aws_access_key_id
- name: AWS_SECRET_ACCESS_KEY
valueFrom:
secretKeyRef:
name: aws
key: aws_secret_access_key
restartPolicy: OnFailure
backoffLimit: 6