Не удается увидеть завершенное задание в Spark web UI

#java #apache-spark

#java #apache-spark

Вопрос:

Я использую ./bin/spark-submit для запуска своего задания Spark. Он работает нормально, но, открыв Spark web UI, я не вижу задание в списке завершенных.

 ./bin/spark-submit --name "myapp" --master local --conf "spark.master=spark://fahad:7077" --class com.apptest.App ~/app-0.0.1-SNAPSHOT.jar
  

Примечание: версия Spark 2.0.1, запущен 1 рабочий, главный пользовательский localhost:8080 интерфейс как на рабочем, так и на главном запускался из ./sbin/start-*.sh скриптов.

Ответ №1:

Существует два разных пользовательского интерфейса: обычный пользовательский интерфейс Spark и сервер истории Spark.

Тот, который показывает задания после их завершения, — это сервер истории.

http://spark.apache.org/docs/latest/monitoring.html

В документах объясняется, что вам нужно запустить его, запустив:

 ./sbin/start-history-server.sh
  

Это создает веб-интерфейс в http://server-url:18080 по умолчанию
отображается список незавершенных и завершенных приложений и попыток.

При использовании класса поставщика файловой системы (см. spark.history.provider ниже) базовый каталог ведения журнала должен быть указан в параметре конфигурации spark.history.fs.logDirectory и должен содержать подкаталоги, каждый из которых представляет журналы событий приложения.

Сами задания spark должны быть настроены для регистрации событий и для их регистрации в том же общем каталоге, доступном для записи. Например, если сервер был настроен с каталогом журналов hdfs://namenode/ shared/spark-logs, тогда параметры на стороне клиента будут:

spark.EventLog.enabled true spark.EventLog.dir hdfs://namenode/shared/spark-logs