AWS EKS Cluster, DockerHub и Traefik, недоступны из Интернета - PullRequest
1 голос
/ 12 июля 2020

kubectl get nodes

NAME                              STATUS   ROLES    AGE   VERSION
ip-192-168-119-55.ec2.internal    Ready    <none>   29h   v1.16.12-eks-904af05
ip-192-168-156-180.ec2.internal   Ready    <none>   29h   v1.16.12-eks-904af05
ip-192-168-193-177.ec2.internal   Ready    <none>   29h   v1.16.12-eks-904af05
kubectl get svc

NAME          TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE
hostname-v2   ClusterIP   10.100.163.163   <none>        80/TCP    29h
kubernetes    ClusterIP   10.100.0.1       <none>        443/TCP   36h
my-app        ClusterIP   10.100.147.193   <none>        80/TCP    9m48s
kubectl get svc -n kube-system

NAME                      TYPE           CLUSTER-IP       EXTERNAL-IP                                                              PORT(S)                       AGE
kube-dns                  ClusterIP      10.100.0.10      <none>                                                                   53/UDP,53/TCP                 25h
traefik-ingress-service   LoadBalancer   10.100.113.186   a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com   80:30015/TCP,8080:31515/TCP   88m
  • kubectl describe pod my-app-898f57d6f-dsfg6
Name:         my-app-898f57d6f-dsfg6
Namespace:    default
Priority:     0
Node:         ip-192-168-119-55.ec2.internal/192.168.119.55
Start Time:   Sun, 12 Jul 2020 16:53:53 -0400
Labels:       app=my-app
              pod-template-hash=898f57d6f
Annotations:  kubernetes.io/psp: eks.privileged
Status:       Running
IP:           192.168.79.54
IPs:
  IP:           192.168.79.54
Controlled By:  ReplicaSet/my-app-898f57d6f
Containers:
  simple-node:
    Container ID:   docker://cd6c686fe8f5460d5985a81a8d75da9c76371e26572b5144d5d43b55a0415ddd
    Image:          pythonss/ex1-node-app
    Image ID:       docker-pullable://pythonss/ex1-node-app@sha256:1ad843251ce45c21df4be52a34565217ea7cc441f2961d90c8e466af14473003
    Port:           80/TCP
    Host Port:      0/TCP
    State:          Running
      Started:      Sun, 12 Jul 2020 16:53:54 -0400
    Ready:          True
    Restart Count:  0
    Environment:    <none>
    Mounts:
      /var/run/secrets/kubernetes.io/serviceaccount from default-token-jm5s2 (ro)
Conditions:
  Type              Status
  Initialized       True
  Ready             True
  ContainersReady   True
  PodScheduled      True
Volumes:
  default-token-jm5s2:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  default-token-jm5s2
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute for 300s
                 node.kubernetes.io/unreachable:NoExecute for 300s
Events:          <none>
kubectl --namespace=kube-system get pods
NAME                                         READY   STATUS    RESTARTS   AGE
aws-node-j76qj                               1/1     Running   0          19h
aws-node-sqrqq                               1/1     Running   0          19h
aws-node-ws9kv                               1/1     Running   0          19h
coredns-55c5fcd78f-2jvzg                     1/1     Running   0          25h
coredns-55c5fcd78f-dlftl                     1/1     Running   0          25h
kube-proxy-g9pbv                             1/1     Running   0          19h
kube-proxy-wzfpc                             1/1     Running   0          19h
kube-proxy-znptc                             1/1     Running   0          19h
traefik-ingress-controller-5bdbcfc59-87rd8   1/1     Running   0          88m

Я также применил манифест traefik и в в то же время изменил тип LB с NodePort на LoadBalancer

kubectl apply -f <(curl -so - https://raw.githubusercontent.com/containous/traefik/v1.7/examples/k8s/traefik-deployment.yaml | sed -e 's/NodePort/LoadBalancer/')
kubectl get svc -n kube-system

NAME                      TYPE           CLUSTER-IP       EXTERNAL-IP                                                              PORT(S)                       AGE
kube-dns                  ClusterIP      10.100.0.10      <none>                                                                   53/UDP,53/TCP                 2d20h

traefik-ingress-service   LoadBalancer   10.100.113.186   a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com   80:30015/TCP,8080:31515/TCP   44h
host a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com
a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com has address 107.22.153.204
a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com has address 52.44.97.64
a262f21c7a0c740949c3321ab77a0259-639235071.us-east-1.elb.amazonaws.com has address 34.195.130.205

Я применил манифест имени хоста, чтобы позже мог сделать

curl 34.195.130.205 hostname-v1. local

как в

hostname-ingress.yaml

---
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: hostname-ingress
  namespace: default
spec:
  rules:
  - host: hostname-v1.local
    http:
      paths:
      - path: /
        backend:
          serviceName: my-app
          servicePort: web
kubectl create -f hostname-ingress.yaml
# OUTPUT
ingress.extensions/hostname-ingress created

Возьмите INGRESS_ADDR и свяжите его с именем домена в / etc / hosts

echo "$INGRESS_ADDR hostname-v1.local" | sudo tee -a /etc/hosts
# OUTPUT
34.195.130.205 hostname-v1.local
kubectl create -f hostname-ingress.yaml
# OUTPUT
ingress.extensions/hostname-ingress created
kubectl get ep
NAME          ENDPOINTS                               AGE
hostname-v2   <none>                                  20h
kubernetes    192.168.219.41:443,192.168.94.137:443   27h
my-app        <none>                                  19h

Теперь давайте возьмем наш INGRESS_ADDR и свяжем его с хостами в etc / hosts

echo "$INGRESS_ADDR hostname-v1.local" | sudo tee -a /etc/hosts
# OUTPUT
34.195.130.205 hostname-v1.local

Здесь также есть service.yaml и deployment.yaml

service.yaml

apiVersion: v1
kind: Service
metadata:
  name: my-app
  labels:
    run: my-app
spec:
  ports:
  - port: 80
    protocol: TCP
  selector:
    run: my-app

deployment.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: my-app
  template:
    metadata:
      labels:
        app: my-app
    spec:
      containers:
      - name: simple-node
        image: pythonss/ex1-node-app
        ports:
        - containerPort: 80
 kubectl get pods --show-labels |egrep 'app=my-app'                                                                 
my-app-898f57d6f-dsfg6   1/1     Running   0          128m   app=my-app,pod-template-hash=898f57d6f
my-app-898f57d6f-hchhb   1/1     Running   0          128m   app=my-app,pod-template-hash=898f57d6f
my-app-898f57d6f-hh4cw   1/1     Running   0          128m   app=my-app,pod-template-hash=898f57d6f

И

kubectl describe svc my-app   
                                                                                  
Name:              my-app
Namespace:         default
Labels:            app=my-app
Annotations:       <none>
Selector:          app=my-app
Type:              ClusterIP
IP:                10.100.147.193
Port:              <unset>  80/TCP
TargetPort:        80/TCP
Endpoints:         192.168.158.248:80,192.168.218.93:80,192.168.79.54:80
Session Affinity:  None
Events:            <none>

Я вижу http://hostname-v1.local: 8080

enter image description here

I can even log in to one of the pod and see that the container is correctly running my app

kubectl exec -it my-app-898f57d6f-dsfg6 /bin/bash
root@my-app-898f57d6f-dsfg6:/usr/src/app# curl localhost

Hello World !!

But

http://hostname-v1.local

показывает

СЕРВИС НЕДОСТУПЕН

Вопрос :

Почему я не вижу, чтобы мое простое приложение работало на:

http://hostname-v1.local (34.195.130.205)

даже если он запущен внутри контейнера?

BR

1 Ответ

1 голос
/ 12 июля 2020

Ваш селектор службы неверен, поскольку модуль не добавлен в качестве конечной точки. Селектор должен быть набором меток, которые присутствуют на модулях, которые вы хотите выбрать для этой службы.

apiVersion: v1
kind: Service
metadata:
  name: my-app
spec:
  selector:
    app: my-app
  ports:
    - protocol: TCP
      port: 80
      targetPort: 80

В вашем определении Ingress вы используете hostname-v1 в качестве серверной службы, которая не нигде не существует. Вместо этого используйте услугу my-app.

apiVersion: extensions/v1beta1
kind: Ingress
metadata:
  name: hostname-ingress
  namespace: default
spec:
  rules:
  - host: hostname-v1.local
    http:
      paths:
      - path: /
        backend:
          serviceName: my-app
          servicePort: 80
...