初識MapReduce的應用場景(附JAVA和Python代碼)
Java版本代碼
先是準備一個數據集,包含著已經切割好的詞匯,這里我們設置文件的格式是txt格式的。文件名是WordMRDemo.txt,內容是下面簡短的一句話,以空格分割開:
hello my name is spacedong welcome to the spacedong thank you
引入Hadoop的依賴包
//這里使用的是2.6.5的依賴包,你可以使用其他版本的
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.5</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.6.5</version>
</dependency>
(溫馨提示:代碼部分可左右滑動)
新建WordMapper.java文件,代碼的作用是進行以空格的形式進行分詞。
public class WordMapper extends Mapper<LongWritable, Text, Text, IntWritable> {
@Override
protected void map(LongWritable key, Text value, Mapper.Context context)
throws java.io.IOException, InterruptedException {
String line = value.toString();
//StringTokenizer默認按照空格來切
StringTokenizer st = new StringTokenizer(line);
while (st.hasMoreTokens()) {
String world = st.nextToken();
//map輸出
context.write(new Text(world), new IntWritable(1));
}
}
}
新建WordReduce.java文件,作用是進行詞匯的統(tǒng)計。
public class WordReduce extends Reducer<Text, IntWritable, Text, IntWritable> {
@Override
protected void reduce(Text key, Iterable<IntWritable> iterator, Context context)
throws java.io.IOException ,InterruptedException {
int sum = 0 ;
for(IntWritable i:iterator){
sum+=i.get();
}
context.write(key, new IntWritable(sum));
}
}
新建WordMRDemo.java文件,作用是運行Job,開始分析句子。
public class WordMRDemo {
public static void main(String[] args) {
Configuration conf = new Configuration();
//設置mapper的配置,既就是hadoop/conf/mapred-site.xml的配置信息
conf.set("mapred.job.tracker", "hadoop:9000");
try {
//新建一個Job工作
Job job = new Job(conf);
//設置運行類
job.setJarByClass(WordMRDemo.class);
//設置要執(zhí)行的mapper類
job.setMapperClass(WordMapper.class);
//設置要執(zhí)行的reduce類
job.setReducerClass(WordReduce.class);
//設置輸出key的類型
job.setMapOutputKeyClass(Text.class);
//設置輸出value的類型
job.setMapOutputValueClass(IntWritable.class);
//設置ruduce任務的個數,默認個數為一個(一般reduce的個數越多效率越高)
//job.setNumReduceTasks(2);
//mapreduce 輸入數據的文件/目錄,注意,這里可以輸入的是目錄。
FileInputFormat.addInputPath(job, new Path("F:BigDataWorkPlacedatainput"));
//mapreduce 執(zhí)行后輸出的數據目錄,不能預先存在,否則會報錯。
FileOutputFormat.setOutputPath(job, new Path("F:BigDataWorkPlacedataout"));
//執(zhí)行完畢退出
System.exit(job.waitForCompletion(true) ? 0 : 1);
} catch (Exception e) {
e.printStackTrace();
}
}
}
最后執(zhí)行WordMRDemo.java文件,然后得到的結果是out文件夾內的內容,它長這個樣子:
out的文件目錄
打開part-r-00000文件的內容如下
具體的文件內容Python代碼版本
新建map.py文件,進行詞匯的切割。
for line in sys.stdin:
time.sleep(1000)
ss = line.strip().split(' ')
for word in ss:
print ' '.join([word.strip(), '1'])
新建red.py文件,進行詞匯的統(tǒng)計。
cur_word = None
sum = 0
for line in sys.stdin:
ss = line.strip().split(' ')
if len(ss) != 2:
continue
word, cnt = ss
if cur_word == None:
cur_word = word
if cur_word != word:
print ' '.join([cur_word, str(sum)])
cur_word = word
sum = 0
sum += int(cnt)
print ' '.join([cur_word, str(sum)])
新建run.sh文件,直接運行即可。
HADOOP_CMD="/usr/local/src/hadoop-2.6.5/bin/hadoop"
STREAM_JAR_PATH="/usr/local/src/hadoop-2.6.5/share/hadoop/tools/lib/hadoop-streaming-2.6.5.jar"
INPUT_FILE_PATH_1="/test.txt"
OUTPUT_PATH="/output"
$HADOOP_CMD fs -rmr -skipTrash $OUTPUT_PATH
# Step 1.
$HADOOP_CMD jar $STREAM_JAR_PATH
-input $INPUT_FILE_PATH_1
-output $OUTPUT_PATH
-mapper "python map.py"
-reducer "python red.py"
-file ./map.py
-file ./red.py
以上的是演示demo的核心代碼,完整的代碼可以上github的代碼倉庫上獲取。
GitHub地址為:http://github.com/cassieeric/bigDaaNotes
以上的文章是MapReduce系列的第一篇,下篇預告是MapReduce的編程模型,敬請期待!
福利
看完后,是否對 MapReduce 有了初步的了解呢?最后送一本電子書給大家《Hadoop的技術內幕:深入解析MapReduce架構設計及實現原理》,在公眾號后臺回復 MapReduce 關鍵字即可獲取。
參考資料:
Hadoop的技術內幕:深入解析MapReduce架構設計及實現原理
題圖:cosmin Paduraru

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?