Модуль Kubernetes застрял в «ожидании»

#kubernetes

#kubernetes

Вопрос:

Внезапно мне захотелось изменить монтирование моего пути к хосту на новое монтирование GlusterFS, которое я создал. И когда я удаляю монтирование, модули этого развертывания остаются такими всегда, я прикрепляю некоторые выходные данные:

 kubectl describe pod [podname]
-->
Name:           otpnxus-5b4b974b65-7s5sb
Namespace:      ouapi
Priority:       0
Node:           node2/
Labels:         app=otpnexus
                pod-template-hash=5b4b974b65
Annotations:    <none>
Status:         Pending
IP:
IPs:            <none>
Controlled By:  ReplicaSet/otpxus-5b4b974b65
Containers:
  otpnexus:
    Image:      dockerhub.privaterep.com
    Port:       <none>
    Host Port:  <none>
    Command:
      otp
    Args:
      --server
      --autoScan
      --insecure
      --verbose
    Environment:  <none>
    Mounts:
      /var/otp/graphs from volum-otp (rw)
      /var/run/secrets/kubernetes.io/serviceaccount from default-token-nm479 (ro)
Conditions:
  Type           Status
  PodScheduled   True
Volumes:
  volum-otp:
    Type:          HostPath (bare host directory volume)
    Path:          /usr/nexus/dades_otp/graphs/
    HostPathType:
  default-token-nm479:
    Type:        Secret (a volume populated by a Secret)
    SecretName:  default-token-nm479
    Optional:    false
QoS Class:       BestEffort
Node-Selectors:  <none>
Tolerations:     node.kubernetes.io/not-ready:NoExecute op=Exists for 300s
                 node.kubernetes.io/unreachable:NoExecute op=Exists for 300s
Events:
  Type    Reason     Age    From               Message
  ----    ------     ----   ----               -------
  Normal  Scheduled  6m18s  default-scheduler  Successfully assigned sapi/otpxus-5b4b974b65-7s5sb to node2
  

и журналы недоступны:

  kubectl logs otpnexus-5b4b974b65-7s5sb
Error from server (NotFound): the server could not find the requested resource ( pods/log otpxus-5b4b974b65-7s5sb)
  

Что я могу сделать?

Комментарии:

1. Удалите все связанные pv, pvcs и развертывания, а затем повторно примените правильные pv, pvc с конфигурацией gluster, а затем примените развертывание

2. Также подождите некоторое время, а затем проверьте вывод модуля kubectl describe pod <имя_поддержки>, он покажет вам точную ошибку. И, возможно, это ошибка монтирования. повторное применение правильных конфигураций, несомненно, поможет

3. Какова ваша инфраструктура? Не могли бы вы добавить вывод из kubectl version ?

Ответ №1:

Вы можете попробовать запустить изображение из Image: непосредственно в Docker 1. с помощью упомянутой команды и аргументов вы сможете увидеть несколько строк журнала.