Как предотвратить запуск более одного экземпляра определенного задания в кластере

#apache-spark

#apache-spark

Вопрос:

Я бы хотел, чтобы конкретное задание завершилось неудачно, если в кластере уже запущен другой его экземпляр (Spark Standalone в моем случае).
Как этого добиться?