Что происходит внутри, когда мы перезапускаем кластер Azure Databricks?

#apache-spark #hadoop #optimization #pyspark #apache-spark-sql #apache-spark #hadoop #оптимизация #pyspark #apache-spark-sql Вопрос: Когда мы получаем много сбоев этапа, мы обычно перезапускаем кластер, чтобы избежать сбоев этапа. Я хочу знать 1) Что…

Продолжить чтениеЧто происходит внутри, когда мы перезапускаем кластер Azure Databricks?