#databricks
Вопрос:
Я начал работать над базами данных. Мне нужно перенести несколько потоковых заданий из Ambari в Databricks. Я развернул одно задание, используя jar и его. работает нормально. Но при развертывании второго задания я столкнулся с ошибкой «несколько контекстных потоков spark не разрешены». Можно ли запустить несколько потоковых заданий spark в кластере databricks?
Я не нашел ни одного документа/статьи, связанной с этим. Если это невозможно, каков наилучший способ развертывания заданий потоковой передачи spark в базах данных??
Комментарии:
1. Какой тип кластера вы используете? Задание вычислить или все цели? Был бы полезен какой-нибудь скриншот или более подробный контекст.