Как запустить несколько приложений потоковой передачи spark в кластере databricks

#databricks

Вопрос:

Я начал работать над базами данных. Мне нужно перенести несколько потоковых заданий из Ambari в Databricks. Я развернул одно задание, используя jar и его. работает нормально. Но при развертывании второго задания я столкнулся с ошибкой «несколько контекстных потоков spark не разрешены». Можно ли запустить несколько потоковых заданий spark в кластере databricks?

Я не нашел ни одного документа/статьи, связанной с этим. Если это невозможно, каков наилучший способ развертывания заданий потоковой передачи spark в базах данных??

Комментарии:

1. Какой тип кластера вы используете? Задание вычислить или все цели? Был бы полезен какой-нибудь скриншот или более подробный контекст.