Должен ли я использовать spark-submit при использовании spring boot

#spring-boot #apache-spark #spark-submit

#spring-boot #apache-spark #spark-submit

Вопрос:

Какова цель отправки spark? Из того, что я вижу, это просто добавление свойств и jars в путь к классу. Если я использую spring boot, могу ли я избежать использования spark-submit и просто упаковать fat jar со всеми свойствами, которые я хочу spark.master и т. Д…

Может ли ppl увидеть какие-либо недостатки в этом?

Ответ №1:

недавно я столкнулся с таким же случаем — а также попытался придерживаться spring boot exec jar, который, к сожалению, потерпел неудачу, но я был близок к концу. состояние, когда я отказался, было — spring boot jar, созданный без включенных библиотек spark / hadoop, и я запускал его в кластере с помощью -Dloader.path=’список библиотек spark / hadoop, извлеченный из SPARK_HOME и HADOOP_HOME в кластере’. В итоге я использовал 2d option — build fat jar с затененным плагином и запустил его как обычный jar с помощью spark submit, что кажется немного странным решением, но все еще работает нормально