摘要:
轉(zhuǎn)者注:本來想在Hadoop學(xué)習(xí)總結(jié)系列詳細(xì)解析HDFS以及Map-Reduce的,然而查找資料的時候,發(fā)現(xiàn)了這篇文章,并且發(fā)現(xiàn)caibinbupt已經(jīng)對Hadoop的源代碼已經(jīng)進(jìn)行了詳細(xì)的分析,推薦大家閱讀。 轉(zhuǎn)自http://blog.csdn.net/HEYUTAO007/archive/2010/07/10/5725379.aspx 參考: 1 caibinbupt的源代碼分析http://caibinbupt.javaeye.com/ 2 coderplay的avaeye http://coderplay.javaeye.com/blog/295097 http://coderpla 閱讀全文
posted @ 2010-11-19 23:52
劉超覺先
閱讀(10183)
評論(0)
推薦(4)
摘要:
一、客戶端 Map-Reduce的過程首先是由客戶端提交一個任務(wù)開始的。 提交任務(wù)主要是通過JobClient.runJob(JobConf)靜態(tài)函數(shù)實(shí)現(xiàn)的: public static RunningJob runJob(JobConf job) throws IOException { //首先生成一個JobClient對象 JobClient jc = new JobClient(job); …… //調(diào)用submitJob來提交一個任務(wù) running = jc.submitJob(job); JobID jobId = running.getID(); …… ... 閱讀全文
posted @ 2010-11-19 23:45
劉超覺先
閱讀(30351)
評論(3)
推薦(6)

浙公網(wǎng)安備 33010602011771號