Spark получает стандартный вывод и stderr с помощью REST api

#apache-spark

#apache-spark

Вопрос:

Я выполняю задания Spark с помощью Spark REST API, как я могу получить stdout и stderr для каждого задания Spark?

Я прочитал документацию по мониторингу и инструментовке.

application API работал хорошо, что отвечало:

 [ {
  "id" : "app-20190308150153-0039",
  "name" : "Spark shell",
  "attempts" : [ {
    "startTime" : "2019-03-08T15:01:52.759GMT",
    "endTime" : "1969-12-31T23:59:59.999GMT",
    "lastUpdated" : "2019-03-08T15:01:52.759GMT",
    "duration" : 0,
    "sparkUser" : "root",
    "completed" : false,
    "appSparkVersion" : "2.3.1",
    "lastUpdatedEpoch" : 1552057312759,
    "startTimeEpoch" : 1552057312759,
    "endTimeEpoch" : -1
  } ]
} ]
  

Итак, я попробовал /applications/[base-app-id]/logs API, подобный:

 wget localhost:4040/api/v1/applications/app-20190308150153-0039/logs
  

но получил сбивающий с толку ответ. Ответ таков

 PK
  

Что PK ? Как получить правильный ответ?

Комментарии:

1. Используете ли вы Mesos?

2. @astro_asz Мой кластер запускается в docker