Как использовать альтернативный JDK

#apache-spark

#apache-spark

Вопрос:

На моем компьютере с win 10 установлены JDK 8 и 11. поскольку Neo4j 4.x совместим только с JDK 11, переменная среды JAVA_HOME устанавливается в path JDK 11.

Вы знаете, что spark 2.x совместим с JDK 8, когда он запускается в локальном режиме, в окне командной строки сообщается о чем-то неправильном. Итак, как установить путь JDk для spark 2 вместо глобальной переменной среды win 10.

Комментарии:

1. О чем сообщается в окне командной строки?

2. Например, используя jenv.be или просто передав другой JDK в spark! Или, возможно, запустив neo4j в docker

3. Pyspark 3.0.1, hadoop 2.7, с JDK 11, ПРЕДУПРЕЖДЕНИЕ: произошла незаконная операция отражающего доступа Предупреждение: незаконный отражающий доступ со стороны org.apache.spark.unsafe. Платформа

4. @WilliamQue Это просто предупреждение, которое в конечном итоге нужно будет исправить, но для JDK 11 код все равно должен работать.

5. @Thilo Спасибо!