Если вы хотите, чтобы каждый экземпляр задания находился на отдельном узле, вы можете использовать daemonSet, это именно то, что он делает, предоставляя 1 модуль на рабочий узел.
apiVersion: apps/v1
kind: DaemonSet
metadata:
name: fluentd-elasticsearch
namespace: kube-system
labels:
k8s-app: fluentd-logging
spec:
selector:
matchLabels:
name: fluentd-elasticsearch
template:
metadata:
labels:
name: fluentd-elasticsearch
spec:
tolerations:
- key: node-role.kubernetes.io/master
effect: NoSchedule
containers:
- name: fluentd-elasticsearch
image: k8s.gcr.io/fluentd-elasticsearch:1.20
resources:
limits:
memory: 200Mi
requests:
cpu: 100m
memory: 200Mi
volumeMounts:
- name: varlog
mountPath: /var/log
- name: varlibdockercontainers
mountPath: /var/lib/docker/containers
readOnly: true
terminationGracePeriodSeconds: 30
volumes:
- name: varlog
hostPath:
path: /var/log
- name: varlibdockercontainers
hostPath:
path: /var/lib/docker/containers
https://kubernetes.io/docs/concepts/workloads/controllers/daemonset/
Другой способ сделать это - использовать антиаффинность pod:
affinity:
podAntiAffinity:
requiredDuringSchedulingIgnoredDuringExecution:
- labelSelector:
matchExpressions:
- key: "app"
operator: In
values:
- zk
topologyKey: "kubernetes.io/hostname"
Поле requiredDuringSchedulingIgnoredDuringExecution сообщает планировщику Kubernetes, что он никогда не должен совмещать два модуля, которые имеют метку приложения как zk в домене, определяемомтопология ключ.TopologyKey kubernetes.io/hostname указывает, что домен является отдельным узлом.Используя различные правила, метки и селекторы, вы можете расширить эту технику, чтобы распространить свой ансамбль на физические, сетевые и доменные области сбоя