#apache-flink
Вопрос:
Когда Flink считывает ключевое значение точки сохранения, задача всегда выполняется и не может быть завершена. Небольшое количество ключевых данных-это нормально, и появится большой объем данных. Добавление параллелизма ресурсов также не работает
ExistingSavepoint savepoint = Savepoint.load(env,
"hdfs:///flink//savepoint-3f7d6a-3c090537e1fo",
new RocksDBStateBackend("hdfs:///flink/newstate"));
DataSet<Tuple2<Long, Long>> dataset =
savepoint.readKeyedState(" process", new ReaderFunction());
dataset.print();