Как решить исключение Iorg.apache.spark.SparkException в sparklyr?

#r #apache-spark #hive #log4j #spark-streaming

#r #apache-spark #улей #log4j #spark-streaming

Вопрос:

Я новичок в sparklyr. При попытке использовать copy_to() функцию у меня возникла ошибка, как я могу это исправить?

Мой код:

 library(sparklyr)
library(babynames)
sc <- spark_connect(master = "local", version = "2.0.1")
babynames_tbl <- copy_to(sc, babynames, "babynames")
  

Ошибка:

Ошибка: org.apache.spark.SparkException: Задание прервано из-за сбоя этапа: задача 0 на этапе 1.0 выполнялась с ошибкой 1 раз, самый последний сбой: потерянная задача 0.0 на этапе 1.0 (TID 1, localhost): java.lang.Исключение NullPointerException в java.lang.ProcessBuilder.start(ProcessBuilder.java: 1012) в org.apache.hadoop.util.Shell.runCommand (Shell.java:482) в org.apache.hadoop.util.Shell.run (Shell.java:455) в org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:715) в org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:873) в org.apache.hadoop.fs.FileUtil.chmod(FileUtil.java:853) в org.apache.spark.util.Утилиты $.FetchFile(Utils.scala: 407) в org.apache.spark.executor.Исполнитель $$anonfun $org $apache$spark$executor$Executor$$updateDependencies$5.применить (Executor.scala: 430) в org.apache.spark.executor.Исполнитель $$anonfun $org $apache$spark$executor$Executor$$updateDependencies $5.применить (Executor.scala: 422) в scala.collection.Подобный обходу $ с фильтром $$anonfun $для каждого$ 1.применить (подобный обходу

Комментарии:

1. Простой вопрос, но на какой версии Java вы работаете? Кроме того, использовали ли вы новейшую версию sparklyr (devtools)?