对不起,问题不清楚,我是Hadoop研究的新手。
我再次编辑了这个问题。
然后写下跑步记录。sh在HDFS上继续使用使用Hadoop流的MapReduce。
我需要在HDFS上读取半年的数据,文件名:20170101-20170630。
HDFS中的文件路径:
/user/name/20161231
/user/name/20170101
/user/name/20170102
.....
/user/name/20170630
/user/name/20170701
run.sh中的脚本部分:
#! /bin/bash
HPHOME=/opt/cloudera/parcels/CDH
JAR_PACKAGE=/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-streaming.jar
#it dosen't work, how to read selected file:20170101-20170630
IN_PATH=/user/name/20170[101-630]
OUT_PATH=/user/out
MAP_FILE=/home/map.py
RED_FILE=/home/red.py