Проблема: создание кластера kubernetes на AWS с использованием Kops - PullRequest
2 голосов
/ 19 сентября 2019

Я устанавливаю новый кластер Kubernetes на AWS, используя kops.

У меня есть доменное имя, domainname.com и поддомен subdomain.domainname.com.Я настроил AWS Route53 для добавления hostedZone, имя которого совпадает с именем subdomain.domainname.com.

На моем домене.name;Я указал субдомен для каждого NS.

Когда я запускаю kubectl get node:

Unable to connect to the server: dial tcp: lookup api.subdomain.domain.com on 8.8.4.4:53: no such host

Для деталей:

Когда я выполняю эту команду:

kops edit cluster subdomain.domain.com --state=s3://block-state-b429

У меня есть это:

metadata:
  creationTimestamp: "2019-09-17T22:46:45Z"
  name: subdomain.domain.com
spec:
  adminAccess:
  - 0.0.0.0/0
  channel: stable
  cloudProvider: aws
  configBase: s3://block-state-b429/subdomain.domain.com
  dnsZone: subdomain.domain.com
  etcdClusters:
  - etcdMembers:
    - name: eu-west-1a
      zone: eu-west-1a
    name: main
  - etcdMembers:
    - name: eu-west-1a
      zone: eu-west-1a
    name: events
  kubernetesVersion: v1.5.8
  masterPublicName: api.subdomain.domain.com
  networkCIDR: 172.20.0.0/16
  networking:
    kubenet: {}
  nonMasqueradeCIDR: 100.64.0.0/10
  zones:
  - cidr: 172.20.32.0/19
    name: eu-west-1a

И когда я выполняю эту команду:

cat /root/.kube/config

Я получаю:

apiVersion: v1
clusters:
- cluster:
    certificate-authority-data: 
.... (certificat)
    server: https://api.subdomain.domain.com
  name: subdomain.domain.com
contexts:
- context:
    cluster: subdomain.domain.com
    user: subdomain.domain.com
  name: subdomain.domain.com
current-context: subdomain.domain.com
kind: Config
preferences: {}
users:
- name: subdomain.domain.com
  user:
    client-certificate-data: 
.... (certificat)
    password: **PASSWORD**
    username: **USER**
- name: subdomain.domain.com-basic-auth
  user:
    password: **PASSWORD**
    username:  **USER**

МАРШРУТ 53:

Я создаю управляемую зону для субдомена subdomain.domain.com.

NS
ns-1365.awsdns-42.org. 
ns-322.awsdns-40.com. 
ns-2043.awsdns-63.co.uk. 
ns-909.awsdns-49.net

для каждого NS: я указал его на моем domain.com

NS:
subdomain ns-1365.awsdns-42.org
subdomain ns-322.awsdns-40.com
subdomain ns-2043.awsdns-63.co.uk
subdomain ns-909.awsdns-49.net

, и я создал свойкластер с:

kops create cluster \
  --name=subdomain.domain.com \
  --state=s3://block-state-b429 \
  --zones=eu-west-1a \
  --node-count=2 \
  --node-size=t2.micro \
  --master-size=t2.micro \
  --dns-zone=subdomain.domain.com

1 Ответ

0 голосов
/ 21 сентября 2019

Мне нужно изменить только версию, удалить фактически кластер и создать другую, перейдя по этой ссылке: https://github.com/kubernetes/kops/blob/master/docs/aws.md

И все в порядке!

...