Когда Kubernetes автоматически воссоздает AWS ELB

#kubernetes #kubernetes-helm #aws-elb #amazon-eks

#kubernetes #kubernetes-рулевой #aws-elb #amazon-eks

Вопрос:

Я использую Helm для развертывания k8s кластера на AWS EKS .

Мой кластер k8s использует:

  1. Один сервис балансировки нагрузки. Мы явно устанавливаем для этого ELB значение AWS Network ELB , используя аннотацию, предоставленную aws docs.
  2. Два входа, управляемых alb-ingress-controller . При развертывании создаются два AWS Application ELB s.

Мой вопрос:

После первого запуска helm upgrade --install --force... для установки диаграмм выдача следующих helm upgrade --install --force... файлов иногда приводит к созданию новых ELB файлов.

Я хочу узнать больше об этом поведении между повторным развертыванием ресурсов k8s на существующих ресурсах и ELB повторным созданием.

Больше всего ценятся официальные документы о том, когда aws ELB s воссоздаются при их использовании с k8s .

Комментарии:

1. Мне также интересно это — предположительно, это специфичная для EKS модификация kubernetes — helm или kubectl не могут сами создавать инфраструктуру AWS.

Ответ №1:

Я использую Helm для развертывания кластера k8s на AWS EKS

Примечание: Вы не используете Helm для развертывания кластера, вы используете его для развертывания приложений / рабочих нагрузок / ресурсов в кластере Kubernetes.

Я хочу узнать больше об этом поведении между повторным развертыванием ресурсов k8s на существующие ресурсы и повторным созданием ELB.

При повторном развертывании рулевой диаграммы не должно быть воссоздания нового ELB / NLB / ALB, если службы балансировки нагрузки не изменены, если вы используете helm upgrade ...

Единственная причина, по которой балансировщики нагрузки могут быть воссозданы заново, заключается в том, что вы используете что-то вроде helm install --replace или если вы удаляете диаграмму helm в кластере ( helm delete ... ) и все ресурсы ELB / NLB / ALB не удаляются (возможно, их создал оператор? или произошел сбой при вызове AWS API?) и затем вы снова запускаете helm install .

Имейте в виду, что стандартное соглашение об изменениях в кластере заключается в использовании helm upgrade при изменении каких-либо значений. Если вы запускаете helm install поверх существующей диаграммы с тем же именем, вы должны получить сообщение об ошибке (без --replace опции)

Комментарии:

1. Извините за недоразумение, я только что отредактировал helm команду, которую использовал. Это helm upgrade --install --force... , не helm install... . Кроме того, спасибо, что исправили меня в отношении формулировки типа «Вы не используете Helm для развертывания кластера, вы используете его для развертывания приложений / рабочих нагрузок / ресурсов в кластере Kubernetes»