модуль kubeflow — jupyter застрял после создания когда-то

#kubernetes #jupyter-notebook #kubeflow

#kubernetes #jupyter-notebook #kubeflow

Вопрос:

Я новичок в мире Kubernetes. Я пытаюсь развернуть jupyter notebook внутри кластера. Я создал кластер kubernetes со ссылкой на официальные документы. В записной книжке говорится, что он перенаправит на домашнюю страницу после завершения создания. Но модуль jupyter застрял когда-то после нереста.

модуль jupyter застрял когда-то после нереста

Я ссылался на подобную проблему в GitHub, но не смог найти ответ. Указанная ссылка — это ссылка на Github

Из комментариев к проблеме следует, что концентратор jupyter использует постоянный диск. Я запустил эти команды, кажется, постоянный диск подключен.

kubectl -n по умолчанию получает po, svc, deploy, pv, pvc -o в ширину

     NAME                                 READY   STATUS      RESTARTS   AGE   IP          NODE                                             NOMINATED NODE
pod/deploy-ml-pipeline-csnx4-j556r   0/1     Completed   0          30m   10.60.1.6   gke-churnprediction-default-pool-142b8f7d-d4kv   <none>

NAME                 TYPE        CLUSTER-IP    EXTERNAL-IP   PORT(S)   AGE   SELECTOR
service/kubernetes   ClusterIP   10.63.240.1   <none>        443/TCP   32m   <none>

NAME                                                        CAPACITY   ACCESS MODES   RECLAIM POLICY   STATUS   CLAIM                     STORAGECLASS   REASON   AGE
persistentvolume/pvc-57af1a5e-505d-11e9-9b66-42010a800130   10Gi       RWO            Delete           Bound    kubeflow/vizier-db        standard                27m
persistentvolume/pvc-70874d08-505d-11e9-9b66-42010a800130   10Gi       RWO            Delete           Bound    kubeflow/minio-pv-claim   standard                26m
persistentvolume/pvc-70b1712e-505d-11e9-9b66-42010a800130   10Gi       RWO            Delete           Bound    kubeflow/mysql-pv-claim   standard                26m
persistentvolume/pvc-86d45ad1-505d-11e9-9b66-42010a800130   10Gi       RWO            Delete           Bound    kubeflow/claim-madhi      standard                25m
  

Это результат приведенной выше команды, которая, насколько мне известно, успешно подключена к постоянному диску! Я действительно не знаю, как это работает внутри. Итак, я не могу понять, в чем здесь проблема. Кто-нибудь может объяснить проблему или предоставить ссылку на архитектуру kubernetes? Мне будет полезно понять основную концепцию, лежащую в основе kubernetes.

Ниже приведена команда, используемая для получения описания модуля

kubectl описывает модуль pod_name

введите описание изображения здесь

чтобы получить файл yaml

kubectl получает модуль pod_name -o yaml

введите описание изображения здесь
введите описание изображения здесь

Комментарии:

1. Не могли бы вы, пожалуйста, показать kubectl describe pod deploy-ml-pipeline-csnx4-j556r вывод

2. Да @A_Suh Я редактирую этот пост и прикрепляю описание модуля. Извините за поздний ответ. Я некоторое время не пользовался сайтом

3. он не показывает никаких проблем с модулем. Состояние запущено Можете ли вы также обновить свой пост с помощью следующего вывода команды kubectl get po deploy-ml-pipeline-csnx4-j556r -o yaml

4. @A_Suh отредактировал сообщение!

5. Я думаю, автоматическое масштабирование не включено для одного кластера. Это сообщение отображается в веб-интерфейсе GCP. Включение автоматического масштабирования для каждого кластера, я думаю, устранит эту ошибку!

Ответ №1:

Я немного разобрался с решением, но я не знаю, является ли это точным решением или все еще существует проблема. Согласно комментарию, проблем с модулем или другими файлами конфигурации нет. Я немного подумал, что это может быть проблема с localhost. Итак, я попытался сменить порт с 8085 на 8081 и повторно запустить start_ui.sh скрипт. Ошибка при запуске исчезла, и она перенаправила меня в рабочий каталог juypter.

 kubectl port-forward -n ${NAMESPACE} $(kubectl get pods -n ${NAMESPACE} --selector=service=ambassador -o jsonpath='{.items[0].metadata.name}') 8081:80
  

И если вы хотите избежать всех этих проблем, то эффективным способом является запуск kubeflow в конечных точках вместо localhost, что устраняет всю эту проблему. Чтобы просмотреть панель мониторинга в конечных точках, вам необходимо изначально настроить доступ IAM при создании кластера.