Откройте для себя + запросите экземпляр Kafka Streams в Kubernetes, когда ReplicaSet = 2 - PullRequest
0 голосов
/ 24 января 2019

Как отправить запрос RPC другому экземпляру того же экземпляра приложения Kafka Streams в той же службе Kubernetes .

ПРИМЕЧАНИЕ. Ранее это работало в Docker при отображении текущего экземпляра ip: port со свойством application.server

.

например. ReplicaSet=2

Конечная точка экземпляра StreamApp 1 = 1.2.3.4: 7079

Конечная точка StreamApp Instance 2 = 1.2.3.5: 7079

Я хотел бы отправить запрос на отдых из экземпляра 1 для доступа к удаленным интерактивным запросам в экземпляре 2

что я уже пробовал

Я отправил запрос CURL из экземпляра 1 -> экземпляра 2: , но получил ошибку 404

curl -X GET "http://1.2.3.5:7079/user/1" -H "accept: application/json"

но если я отправлю запрос CURL с хоста K8 -> Экземпляр 2: , я получу 200 ok

curl -X GET "http://1.2.3.5:7079/user/1" -H "accept: application/json"



 #values.yml
replicaCount: 1

 image:
  repository: "docker.hosted/steam-app"
  tag: "0.1.0"
  pullPolicy: Always
  pullSecret: "a_secret"

service:
 name: http
 type: NodePort
 externalPort: 7079
 internalPort: 7079

kafka:
 host: "kafka.default"
 port: "9092"

ingress:
 enabled: false

deployment.yml

apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  name: {{ template "stream-app.fullname" . }}
  labels:
    app: {{ template "stream-app.name" . }}
    chart: {{ .Chart.Name }}-{{ .Chart.Version | replace "+" "_" }}
    release: {{ .Release.Name }}
    heritage: {{ .Release.Service }}
spec:
  replicas: {{ .Values.replicaCount }}
  template:
    metadata:
      labels:
        app: {{ template "stream-app.name" . }}
        release: {{ .Release.Name }}
    spec:
      containers:
        - name: {{ .Chart.Name }}
          image: "{{ .Values.image.repository }}:{{ .Values.image.tag }}"
          imagePullPolicy: {{ .Values.image.pullPolicy }}
          env:
            - name: KAFKA_HOST
              value: "{{ tpl .Values.kafka.host . }}"
            - name: KAFKA_PORT
              value: "{{ .Values.kafka.port }}"
            - name: MY_POD_IP
              valueFrom:
               fieldRef:
                fieldPath: status.podIP
            - name: MY_POD_PORT
              value: "{{ .Values.service.internalPort }}"
          ports:
            - containerPort: {{ .Values.service.internalPort }}
          livenessProbe:
            httpGet:
              path: /actuator/alive
              port: {{ .Values.service.internalPort }}
            initialDelaySeconds: 60
            periodSeconds: 10
            timeoutSeconds: 1
            successThreshold: 1
            failureThreshold: 3
          readinessProbe:
            httpGet:
              path: /actuator/ready
              port: {{ .Values.service.internalPort }}
          initialDelaySeconds: 60
          periodSeconds: 10
          timeoutSeconds: 1
          successThreshold: 1
          failureThreshold: 3
          resources:
{{ toYaml .Values.resources | indent 12 }}
    {{- if .Values.nodeSelector }}
      nodeSelector:
{{ toYaml .Values.nodeSelector | indent 8 }}
    {{- end }}
      imagePullSecrets:
        - name: {{ .Values.image.pullSecret }

service.yml

kind: Service
metadata:
  name: {{ template "stream-app.fullname" . }}
  labels:
    app: {{ template "stream-app.name" . }}
    chart: {{ .Chart.Name }}-{{ .Chart.Version | replace "+" "_" }}
    release: {{ .Release.Name }}
    heritage: {{ .Release.Service }}
spec:
  type: {{ .Values.service.type }}
  ports:
    - port: {{ .Values.service.externalPort }}
      targetPort: {{ .Values.service.internalPort }}
      protocol: TCP
      name: {{ .Values.service.name }}
  selector:
    app: {{ template "stream-app.name" . }}
    release: {{ .Release.Name }}

1 Ответ

0 голосов
/ 20 февраля 2019

Я отключил внедрение Istio перед установкой службы, а затем снова включил ее после установки службы, и теперь все работает нормально, поэтому команды, которые у меня работали, были:

enter image description here

...