как я могу эффективно загружать несколько файлов по одному и тому же пути в hadoop?

#shell #hdfs #hadoop2

Вопрос:

например: У меня более 10 файлов в пути /home/doc/data/ : 202012.txt, 202101.txt, 202102.txt…….

Если я ХОЧУ загрузить все файлы, для 2021 которых я должен использовать :

 hadoop fs -copyFromLocal /home/doc/data/202101.txt /home/doc/data/202102.txt /home/doc/data/202103.txt... $HDFSLOCATION
 

Существует ли какой-либо эффективный способ избежать избыточности кода?

Ответ №1:

Используйте подстановочный знак:

  hadoop fs -copyFromLocal "/home/doc/data/2021*.txt" $HDFSLOCATION