Когда Flink считывает ключевое значение точки сохранения, задача всегда выполняется и не может быть завершена

#apache-flink

Вопрос:

Когда Flink считывает ключевое значение точки сохранения, задача всегда выполняется и не может быть завершена. Небольшое количество ключевых данных-это нормально, и появится большой объем данных. Добавление параллелизма ресурсов также не работает

 ExistingSavepoint savepoint = Savepoint.load(env,
            "hdfs:///flink//savepoint-3f7d6a-3c090537e1fo",
             new RocksDBStateBackend("hdfs:///flink/newstate"));
DataSet<Tuple2<Long, Long>> dataset =
    savepoint.readKeyedState(" process", new ReaderFunction());
dataset.print();