SPARK: Как контролировать потребление памяти в кластере Spark?

#apache-spark

#apache-spark

Вопрос:

Извините за основной вопрос, но я не мог понять это сам.

Я пытался выяснить в пользовательском интерфейсе Spark, сколько памяти доступно и используется для каждого работника и драйвера.

Есть ли какой-либо простой и понятный способ отслеживать эту информацию?

Моя цель — определить стратегию сохранения в соответствии с тем, сколько моих данных занимают рабочие и драйвер.

PS Я использую автономный режим в Spark 1.6.1

Комментарии:

1. Я использую visualvm для автономного и ganglia кластерного режима.

Ответ №1:

Я думаю, что на вкладке Исполнители у вас будет необходимая информация. Если у вас есть spark up, вы найдете его в http://localhost:4040/executors / Лучший!