pyspark — как настроить процесс *NIX для интерпретатора Python

#apache-spark #pyspark

Вопрос:

Вопрос

Как PySpark вызывает процесс UNIX для интерпретатора Python и настраивает среду Python, такую как переменные среды?

Управление пакетами Python содержит приведенный ниже код, указывающий переменную среды PYSPARK_PYTHON. Будет ли он передан рабочему узлу, и процесс *NIX для интерпретатора Python также будет иметь переменную среды PYSPARK_PYTHON?

 export PYSPARK_DRIVER_PYTHON=python # Do not set in cluster modes.
export PYSPARK_PYTHON=./environment/bin/python
spark-submit --archives pyspark_conda_env.tar.gz#environment app.py
 

Есть ли способ указать переменную среды PYTHONPATH для процесса интерпретатора Python, чтобы мы могли контролировать, где искать модули Python?

Как Spark executor на рабочих узлах взаимодействует с процессом интерпретатора Python? Существует ли конкретный протокол?

Похожие