домен поиска kubernetes dns добавлен в некоторые запросы - PullRequest
0 голосов
/ 24 июня 2019

У меня работает кластер kubernetes с главным и двумя рабочими узлами.

root@kube-master:~# kubectl get nodes
NAME           STATUS   ROLES    AGE     VERSION
kube-master    Ready    master   4d19h   v1.14.3
kube-node-01   Ready    <none>   4d18h   v1.14.3
kube-node-02   Ready    <none>   6h3m    v1.14.3

Теперь мой входной контроллер traefik не может разрешать DNS-запросы.

/ # nslookup acme-v02.api.letsencrypt.org
nslookup: can't resolve '(null)': Name does not resolve

Name:      acme-v02.api.letsencrypt.org
Address 1: <my.public.ip> mail.xxx.xxx

Теперь сtcpdump на моем поле opnsense Я получаю запросы с добавленным внутренним поисковым доменом, разрешая мой публичный ip, что неверно.

Но по какой-то причине ... вращение тестового модуля busybox работает ...

/ # nslookup acme-v02.api.letsencrypt.org
Server:    10.96.0.10
Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name:      acme-v02.api.letsencrypt.org
Address 1: 2a02:26f0:ef:197::3a8e g2a02-26f0-00ef-0197-0000-0000-0000-3a8e.deploy.static.akamaitechnologies.com
Address 2: 2a02:26f0:ef:181::3a8e g2a02-26f0-00ef-0181-0000-0000-0000-3a8e.deploy.static.akamaitechnologies.com
Address 3: 104.74.120.43 a104-74-120-43.deploy.static.akamaitechnologies.com

Оба файла /etc/resolve.conf одинаковы, ожидайте, что namespace

Поскольку kubernetes 1.11 coredns не является системой разрешения DNS по умолчанию.На этой странице отладки системы dns с coredns говорится, что я должен использовать

root@kube-master:~# kubectl get pods --namespace=kube-system -l k8s-app=coredns
No resources found.

Но это ничего не возвращает!Использование kube-dns возвращает coredns стручков!

root@kube-master:~# kubectl get pods --namespace=kube-system -l k8s-app=kube-dns
NAME                      READY   STATUS    RESTARTS   AGE
coredns-fb8b8dccf-jmhdm   1/1     Running   5          4d19h
coredns-fb8b8dccf-tfw7v   1/1     Running   5          4d19h

Что здесь происходит ?!Документация неправильная или что-то внутри моего кластера?

1 Ответ

0 голосов
/ 27 июня 2019

Я покажу и объясню вам на примере nginx ingress controller. Я считаю, что ситуация с входным контроллером traefik такая же.

Итак, прежде всего - относительно kube-dns и coredns беспорядка, который вы описываете: это реализовано по замыслу. вы можете сослаться на github coredns по-прежнему помечен как проблема kube-dns , чтобы узнать больше.

В моем кластере у меня также есть coredns служба, которая называется kube-dns и относится к coredns бобам с k8s-app=kube-dns меткой

kubectl describe service kube-dns -n kube-system
Name:              kube-dns
Namespace:         kube-system
Labels:            k8s-app=kube-dns
                   kubernetes.io/cluster-service=true
                   kubernetes.io/name=KubeDNS
Annotations:       prometheus.io/port: 9153
                   prometheus.io/scrape: true
Selector:          k8s-app=kube-dns
Type:              ClusterIP
IP:                10.96.0.10
Port:              dns  53/UDP
TargetPort:        53/UDP
Endpoints:         10.32.0.2:53,10.32.0.9:53
Port:              dns-tcp  53/TCP
TargetPort:        53/TCP
Endpoints:         10.32.0.2:53,10.32.0.9:53
Port:              metrics  9153/TCP
TargetPort:        9153/TCP
Endpoints:         10.32.0.2:9153,10.32.0.9:9153
Session Affinity:  None
Events:            <none>

kubectl get pods -n kube-system -l k8s-app=kube-dns -o wide
NAME                      READY   STATUS    RESTARTS   AGE     IP          NODE                     NOMINATED NODE   READINESS GATES
coredns-fb8b8dccf-42285   1/1     Running   0          3h26m   10.32.0.9   kubernetessandbox-1-vm   <none>           <none>
coredns-fb8b8dccf-87j5v   1/1     Running   0          3h26m   10.32.0.2   kubernetessandbox-1-vm   <none>           <none>

Когда я запускаю новый модуль busybox - он имеет /etc/resolv.conf, который указывает на службу kube-dns (10.96.0.10) и имеет правильный поиск:

cat /etc/resolv.conf
search kube-system.svc.cluster.local svc.cluster.local cluster.local c.myproj.internal. google.internal.
nameserver 10.96.0.10
options ndots:5

Но в то же время мой входной модуль nginx имеет nameserver 169.254.169.254 и также не способен nslookup даже kubernetes.default

cat /etc/resolv.conf
search c.myproj.internal. google.internal.
nameserver 169.254.169.254

Не уверен, что у вас есть в /etc/resolv.conf на traefic pod, но проблема есть. И что /etc/resolv.conf у вас идет от вашего узла

Установка dnsPolicy: ClusterFirstWithHostNet вместо dnsPolicy: ClusterFirst должна решить эту проблему, если вход использует hostNetwork.

Из документации dns-pod-service :

«ClusterFirstWithHostNet»: для модулей, работающих с hostNetwork, вы должен явно установить свою политику DNS «ClusterFirstWithHostNet».

После редактирования развертывания nginx-ingress-controller из

  dnsPolicy: ClusterFirst
  hostNetwork: true

до

  dnsPolicy: ClusterFirstWithHostNet
  hostNetwork: true

модуль был воссоздан с желаемым /etc/resolv.conf:

cat /etc/resolv.conf
search kube-system.svc.cluster.local svc.cluster.local cluster.local c.myproj.internal. google.internal.
nameserver 10.96.0.10
options ndots:5

nslookup kubernetes.default
Server:         10.96.0.10
Address:        10.96.0.10#53

Name:   kubernetes.default.svc.cluster.local
Address: 10.96.0.1

Несколько URL для вас с вопросами и объяснениями, связанными с hostNetwork / dnsPolicy. Это важная часть правильной настройки Traefik:

1) Трафик на k8s без внешнего прослушивания без изменения развертывания

2) Вопрос о стеке traefik

3) Вход с Traefik статья:

dnsPolicy: ClusterFirstWithHostNet

Этот параметр важен. Это настроит использование модулей Traefik внутренний DNS-сервер кластера Kubernetes (скорее всего KubeDNS или возможно CoreDNS). Это означает, что файлы /etc/resolv.conf будут настроен на использование DNS-сервера Kubernetes. В противном случае DNS-сервер узла Kubernetes будет использоваться (в основном /etc/resolv.conf рабочий узел, но он не может разрешить cluster.local DNS, например).

Надеюсь, это поможет

...