#apache-spark #solr #lucidworks
#apache-spark #solr #lucidworks
Вопрос:
Я пытаюсь добавить графитовый приемник в свой компонент Fusion Spark.
Я создал файл — ${FUSION_DIR}/apps/spark-dist/conf/metrics.properties с содержимым —
# Enable Graphite
*.sink.graphite.class=org.apache.spark.metrics.sink.GraphiteSink
*.sink.graphite.host=graphite-server
*.sink.graphite.port=2003
*.sink.graphite.period=10
*.sink.graphite.prefix=lab.$(hostname)
# Enable jvm source for instance master, worker, driver and executor
master.source.jvm.class=org.apache.spark.metrics.source.JvmSource
worker.source.jvm.class=org.apache.spark.metrics.source.JvmSource
driver.source.jvm.class=org.apache.spark.metrics.source.JvmSource
executor.source.jvm.class=org.apache.spark.metrics.source.JvmSource
И добавил следующее в ${FUSION_DIR}/apps/spark-dist/bin/spark-submit —
exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit --files="${SPARK_HOME}"/conf/metrics.properties --conf spark.metrics.conf=metrics.properties "$@"
Но я не вижу никаких показателей, представленных в Graphite, и никаких ошибок в журналах Spark.
Кто-нибудь успешно использовал конфигурацию Spark metrics в Fusion?
Ответ №1:
Мне нужно было добавить полный путь к параметру —conf в spark-submit
—
exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit --files="${SPARK_HOME}"/conf/metrics.properties --conf spark.metrics.conf="${SPARK_HOME}"/conf/metrics.properties "$@"
.
Я не видел ошибки при запуске Spark master и рабочих процессов, но я видел ошибку при запуске spark-shell
, которая подсказала мне проблему с конфигурацией.