Java-программа на сервере заданий Spark выдает scala.Ошибка сопоставления

#apache-spark #datastax #spark-jobserver

#apache-spark #datastax #spark-сервер заданий

Вопрос:

Я использую сервер заданий Spark DSE. Задача, которую я пытаюсь выполнить, заключается в следующем:

Ожидается, что задание spark, которое я создал на Java, получит некоторые данные из базы данных cassandra, и это будет развернуто в кластере DSE Analytics.

Код выглядит следующим образом:

 package com.symantec.nsp.analytics;

import static com.datastax.spark.connector.japi.CassandraJavaUtil.javaFunctions;
import static com.datastax.spark.connector.japi.CassandraJavaUtil.mapRowTo;

import java.io.Serializable;
import java.util.List;
import java.util.UUID;

import org.apache.commons.lang.StringUtils;
import org.apache.spark.SparkContext;
import org.apache.spark.api.java.JavaSparkContext;

import spark.jobserver.JavaSparkJob;
import spark.jobserver.SparkJobInvalid;
import spark.jobserver.SparkJobValid$;
import spark.jobserver.SparkJobValidation;

import com.symantec.nsp.analytics.model.Bucket;
import com.typesafe.config.Config;

public class JavaSparkJobBasicQuery extends JavaSparkJob {

    public String runJob(JavaSparkContext jsc, Config config) {
        try {
            List<UUID> bucketRecords = javaFunctions(jsc).cassandraTable("nsp_storage", "bucket", mapRowTo(Bucket.class))
                    .select("id", "deleted").filter(s -> s.getDeleted()).map(s -> s.getId()).collect();

            System.out.println(">>>>>>>>  Total Buckets getting scanned by Spark :"   bucketRecords.size());
            return bucketRecords.toString();
        } catch (Exception e) {
            e.printStackTrace();
            return null;
        }
    }

    public SparkJobValidation validate(SparkContext sc, Config config) {
        return null;
    }

    public String invalidate(JavaSparkContext jsc, Config config) {
        return null;
    }
}
  

Проблема:

При выполнении этого кода я получаю следующую проблему:

   "status": "ERROR",
  "result":
    "message": "null",
    "errorClass": "scala.MatchError",
    "stack": ["spark.jobserver.JobManagerActor$$anonfun$spark$jobserver$JobManagerActor$$getJobFuture$4.apply(JobManagerActor.scala:244)", "scala.concurrent.impl.Future$PromiseCompletingRunnable.liftedTree1$1(Future.scala:24)", "scala.concurrent.impl.Future$PromiseCompletingRunnable.run(Future.scala:24)", "java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)", "java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)", "java.lang.Thread.run(Thread.java:745)"]
  

Может ли кто-нибудь решить проблему.
Примечание: Я несколько раз пытался очистить /tmp папку. Не удалось решить эту проблему. Версия DSE, которую я использую, равна 4.8.10.

Ответ №1:

Я не совсем уверен, не хотите ли вы возвращать null при исключении. Я бы оставил это для распространения.