MapReduceShuffle過程是怎樣的

這篇文章主要介紹“MapReduce Shuffle過程是怎樣的”,在日常操作中,相信很多人在MapReduce Shuffle過程是怎樣的問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”MapReduce Shuffle過程是怎樣的”的疑惑有所幫助!接下來,請跟著小編一起來學(xué)習(xí)吧!

讓客戶滿意是我們工作的目標(biāo),不斷超越客戶的期望值來自于我們對這個行業(yè)的熱愛。我們立志把好的技術(shù)通過有效、簡單的方式提供給客戶,將通過不懈努力成為客戶在信息化領(lǐng)域值得信任、有價值的長期合作伙伴,公司提供的服務(wù)項目有:域名注冊、網(wǎng)絡(luò)空間、營銷軟件、網(wǎng)站建設(shè)、南安網(wǎng)站維護、網(wǎng)站推廣。

Shuffle的正常意思是洗牌或弄亂,可能大家更熟悉的是Java API里的Collections.shuffle(List)方法,它會隨機地打亂參數(shù)list里的元素順序。如果你不知道MapReduce里Shuffle是什么,那么請看這張圖:

MapReduce Shuffle過程是怎樣的

這張是官方對Shuffle過程的描述。但我可以肯定的是,單從這張圖你基本不可能明白Shuffle的過程,因為它與事實相差挺多,細節(jié)也是錯亂的。后面我會具體描述Shuffle的事實情況,所以這里你只要清楚Shuffle的大致范圍就成-怎樣把map task的輸出結(jié)果有效地傳送到reduce端。也可以這樣理解, Shuffle描述著數(shù)據(jù)從map task輸出到reduce task輸入的這段過程。

在Hadoop這樣的集群環(huán)境中,大部分map task與reduce task的執(zhí)行是在不同的節(jié)點上。當(dāng)然很多情況下Reduce執(zhí)行時需要跨節(jié)點去拉取其它節(jié)點上的map task結(jié)果。如果集群正在運行的job有很多,那么task的正常執(zhí)行對集群內(nèi)部的網(wǎng)絡(luò)資源消耗會很嚴(yán)重。這種網(wǎng)絡(luò)消耗是正常的,我們不能限制,能做的就是最大化地減少不必要的消耗。還有在節(jié)點內(nèi),相比于內(nèi)存,磁盤IO對job完成時間的影響也是可觀的。從最基本的要求來說,我們對Shuffle過程的期望可以有: 完整地從map task端拉取數(shù)據(jù)到reduce 端。 在跨節(jié)點拉取數(shù)據(jù)時,盡可能地減少對帶寬的不必要消耗。 減少磁盤IO對task執(zhí)行的影響。

OK,看到這里時,大家可以先停下來想想,如果是自己來設(shè)計這段Shuffle過程,那么你的設(shè)計目標(biāo)是什么。我想能優(yōu)化的地方主要在于減少拉取數(shù)據(jù)的量及盡量使用內(nèi)存而不是磁盤。

我的分析是基于Hadoop0.21.0的源碼,如果與你所認識的Shuffle過程有差別,不吝指出。我會以WordCount為例,并假設(shè)它有8個map task和3個reduce task。從上圖看出,Shuffle過程橫跨map與reduce兩端,所以下面我也會分兩部分來展開。

先看看map端的情況,如下圖:

MapReduce Shuffle過程是怎樣的

上圖可能是某個map task的運行情況。拿它與官方圖的左半邊比較,會發(fā)現(xiàn)很多不一致。官方圖沒有清楚地說明partition, sort與combiner到底作用在哪個階段。我畫了這張圖,希望讓大家清晰地了解從map數(shù)據(jù)輸入到map端所有數(shù)據(jù)準(zhǔn)備好的全過程。

整個流程我分了四步。簡單些可以這樣說,每個map task都有一個內(nèi)存緩沖區(qū),存儲著map的輸出結(jié)果,當(dāng)緩沖區(qū)快滿的時候需要將緩沖區(qū)的數(shù)據(jù)以一個臨時文件的方式存放到磁盤,當(dāng)整個map task結(jié)束后再對磁盤中這個map task產(chǎn)生的所有臨時文件做合并,生成最終的正式輸出文件,然后等待reduce task來拉數(shù)據(jù)。

當(dāng)然這里的每一步都可能包含著多個步驟與細節(jié),下面我對細節(jié)來一一說明:

  1.    在map task執(zhí)行時,它的輸入數(shù)據(jù)來源于HDFS的block,當(dāng)然在MapReduce概念中,map task只讀取split。Split與block的對應(yīng)關(guān)系可能是多對一,默認是一對一。在WordCount例子里,假設(shè)map的輸入數(shù)據(jù)都是像“aaa”這樣的字符串。

  2.    在經(jīng)過mapper的運行后,我們得知mapper的輸出是這樣一個key/value對: key是“aaa”, value是數(shù)值1。因為當(dāng)前map端只做加1的操作,在reduce task里才去合并結(jié)果集。前面我們知道這個job有3個reduce task,到底當(dāng)前的“aaa”應(yīng)該交由哪個reduce去做呢,是需要現(xiàn)在決定的。 
    
     MapReduce提供Partitioner接口,它的作用就是根據(jù)key或value及reduce的數(shù)量來決定當(dāng)前的這對輸出數(shù)據(jù)最終應(yīng)該交由哪個reduce task處理。默認對key hash后再以reduce task數(shù)量取模。默認的取模方式只是為了平均reduce的處理能力,如果用戶自己對Partitioner有需求,可以訂制并設(shè)置到j(luò)ob上。 
    
     在我們的例子中,“aaa”經(jīng)過Partitioner后返回0,也就是這對值應(yīng)當(dāng)交由第一個reducer來處理。接下來,需要將數(shù)據(jù)寫入內(nèi)存緩沖區(qū)中,緩沖區(qū)的作用是批量收集map結(jié)果,減少磁盤IO的影響。我們的key/value對以及Partition的結(jié)果都會被寫入緩沖區(qū)。當(dāng)然寫入之前,key與value值都會被序列化成字節(jié)數(shù)組。 
    
     整個內(nèi)存緩沖區(qū)就是一個字節(jié)數(shù)組,它的字節(jié)索引及key/value存儲結(jié)構(gòu)我沒有研究過。如果有朋友對它有研究,那么請大致描述下它的細節(jié)吧。

  3.    這個內(nèi)存緩沖區(qū)是有大小限制的,默認是100MB。當(dāng)map task的輸出結(jié)果很多時,就可能會撐爆內(nèi)存,所以需要在一定條件下將緩沖區(qū)中的數(shù)據(jù)臨時寫入磁盤,然后重新利用這塊緩沖區(qū)。這個從內(nèi)存往磁盤寫數(shù)據(jù)的過程被稱為Spill,中文可譯為溢寫,字面意思很直觀。這個溢寫是由單獨線程來完成,不影響往緩沖區(qū)寫map結(jié)果的線程。溢寫線程啟動時不應(yīng)該阻止map的結(jié)果輸出,所以整個緩沖區(qū)有個溢寫的比例spill.percent。這個比例默認是0.8,也就是當(dāng)緩沖區(qū)的數(shù)據(jù)已經(jīng)達到閾值(buffer size * spill percent = 100MB * 0.8 = 80MB),溢寫線程啟動,鎖定這80MB的內(nèi)存,執(zhí)行溢寫過程。Map task的輸出結(jié)果還可以往剩下的20MB內(nèi)存中寫,互不影響。 
    
     當(dāng)溢寫線程啟動后,需要對這80MB空間內(nèi)的key做排序(Sort)。排序是MapReduce模型默認的行為,這里的排序也是對序列化的字節(jié)做的排序。 
    
     在這里我們可以想想,因為map task的輸出是需要發(fā)送到不同的reduce端去,而內(nèi)存緩沖區(qū)沒有對將發(fā)送到相同reduce端的數(shù)據(jù)做合并,那么這種合并應(yīng)該是體現(xiàn)是磁盤文件中的。從官方圖上也可以看到寫到磁盤中的溢寫文件是對不同的reduce端的數(shù)值做過合并。所以溢寫過程一個很重要的細節(jié)在于,如果有很多個key/value對需要發(fā)送到某個reduce端去,那么需要將這些key/value值拼接到一塊,減少與partition相關(guān)的索引記錄。 
    
     在針對每個reduce端而合并數(shù)據(jù)時,有些數(shù)據(jù)可能像這樣:“aaa”/1, “aaa”/1。對于WordCount例子,就是簡單地統(tǒng)計單詞出現(xiàn)的次數(shù),如果在同一個map task的結(jié)果中有很多個像“aaa”一樣出現(xiàn)多次的key,我們就應(yīng)該把它們的值合并到一塊,這個過程叫reduce也叫combine。但MapReduce的術(shù)語中,reduce只指reduce端執(zhí)行從多個map task取數(shù)據(jù)做計算的過程。除reduce外,非正式地合并數(shù)據(jù)只能算做combine了。其實大家知道的,MapReduce中將Combiner等同于Reducer。 
    
     如果client設(shè)置過Combiner,那么現(xiàn)在就是使用Combiner的時候了。將有相同key的key/value對的value加起來,減少溢寫到磁盤的數(shù)據(jù)量。Combiner會優(yōu)化MapReduce的中間結(jié)果,所以它在整個模型中會多次使用。那哪些場景才能使用Combiner呢?從這里分析,Combiner的輸出是Reducer的輸入,Combiner絕不能改變最終的計算結(jié)果。所以從我的想法來看,Combiner只應(yīng)該用于那種Reduce的輸入key/value與輸出key/value類型完全一致,且不影響最終結(jié)果的場景。比如累加,最大值等。Combiner的使用一定得慎重,如果用好,它對job執(zhí)行效率有幫助,反之會影響reduce的最終結(jié)果。

  4.    每次溢寫會在磁盤上生成一個溢寫文件,如果map的輸出結(jié)果真的很大,有多次這樣的溢寫發(fā)生,磁盤上相應(yīng)的就會有多個溢寫文件存在。當(dāng)map task真正完成時,內(nèi)存緩沖區(qū)中的數(shù)據(jù)也全部溢寫到磁盤中形成一個溢寫文件。最終磁盤中會至少有一個這樣的溢寫文件存在(如果map的輸出結(jié)果很少,當(dāng)map執(zhí)行完成時,只會產(chǎn)生一個溢寫文件),因為最終的文件只有一個,所以需要將這些溢寫文件歸并到一起,這個過程就叫做Merge。Merge是怎樣的?如前面的例子,“aaa”從某個map task讀取過來時值是5,從另外一個map 讀取時值是8,因為它們有相同的key,所以得merge成group。什么是group。對于“aaa”就是像這樣的:{“aaa”, [5, 8, 2, …]},數(shù)組中的值就是從不同溢寫文件中讀取出來的,然后再把這些值加起來。請注意,因為merge是將多個溢寫文件合并到一個文件,所以可能也有相同的key存在,在這個過程中如果client設(shè)置過Combiner,也會使用Combiner來合并相同的key。 
    
     至此,map端的所有工作都已結(jié)束,最終生成的這個文件也存放在TaskTracker夠得著的某個本地目錄內(nèi)。每個reduce task不斷地通過RPC從JobTracker那里獲取map task是否完成的信息,如果reduce task得到通知,獲知某臺TaskTracker上的map task執(zhí)行完成,Shuffle的后半段過程開始啟動。 
    
     簡單地說,reduce task在執(zhí)行之前的工作就是不斷地拉取當(dāng)前job里每個map task的最終結(jié)果,然后對從不同地方拉取過來的數(shù)據(jù)不斷地做merge,也最終形成一個文件作為reduce task的輸入文件。見下圖: 
    
     ![](https://static.oschina.net/uploads/img/201609/09132813_1biy.jpg )
    
     如map 端的細節(jié)圖,Shuffle在reduce端的過程也能用圖上標(biāo)明的三點來概括。當(dāng)前reduce copy數(shù)據(jù)的前提是它要從JobTracker獲得有哪些map task已執(zhí)行結(jié)束,這段過程不表,有興趣的朋友可以關(guān)注下。Reducer真正運行之前,所有的時間都是在拉取數(shù)據(jù),做merge,且不斷重復(fù)地在做。如前面的方式一樣,下面我也分段地描述reduce 端的Shuffle細節(jié):

  5.    Copy過程,簡單地拉取數(shù)據(jù)。Reduce進程啟動一些數(shù)據(jù)copy線程(Fetcher),通過HTTP方式請求map task所在的TaskTracker獲取map task的輸出文件。因為map task早已結(jié)束,這些文件就歸TaskTracker管理在本地磁盤中。

  6.    Merge階段。這里的merge如map端的merge動作,只是數(shù)組中存放的是不同map端copy來的數(shù)值。Copy過來的數(shù)據(jù)會先放入內(nèi)存緩沖區(qū)中,這里的緩沖區(qū)大小要比map端的更為靈活,它基于JVM的heap size設(shè)置,因為Shuffle階段Reducer不運行,所以應(yīng)該把絕大部分的內(nèi)存都給Shuffle用。這里需要強調(diào)的是,merge有三種形式:1)內(nèi)存到內(nèi)存  2)內(nèi)存到磁盤  3)磁盤到磁盤。默認情況下第一種形式不啟用,讓人比較困惑,是吧。當(dāng)內(nèi)存中的數(shù)據(jù)量到達一定閾值,就啟動內(nèi)存到磁盤的merge。與map 端類似,這也是溢寫的過程,這個過程中如果你設(shè)置有Combiner,也是會啟用的,然后在磁盤中生成了眾多的溢寫文件。第二種merge方式一直在運行,直到?jīng)]有map端的數(shù)據(jù)時才結(jié)束,然后啟動第三種磁盤到磁盤的merge方式生成最終的那個文件。

  7.    Reducer的輸入文件。不斷地merge后,最后會生成一個“最終文件”。為什么加引號?因為這個文件可能存在于磁盤上,也可能存在于內(nèi)存中。對我們來說,當(dāng)然希望它存放于內(nèi)存中,直接作為Reducer的輸入,但默認情況下,這個文件是存放于磁盤中的。至于怎樣才能讓這個文件出現(xiàn)在內(nèi)存中,之后的性能優(yōu)化篇我再說。當(dāng)Reducer的輸入文件已定,整個Shuffle才最終結(jié)束。然后就是Reducer執(zhí)行,把結(jié)果放到HDFS上。 
    
     上面就是整個Shuffle的過程。細節(jié)很多,我很多都略過了,只試著把要點說明白。當(dāng)然,我可能也有理解或表述上的很多問題,不吝指點。我希望不斷地完善和修改這篇文章,能讓它通俗、易懂,看完就能知道Shuffle的方方面面。至于具體的實現(xiàn)原理,各位有興趣就自己去探索,如果不方便的話,留言給我,我再來研究并反饋。

到此,關(guān)于“MapReduce Shuffle過程是怎樣的”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識,請繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>

文章題目:MapReduceShuffle過程是怎樣的
當(dāng)前鏈接:http://bm7419.com/article8/goejop.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供手機網(wǎng)站建設(shè)網(wǎng)站維護、關(guān)鍵詞優(yōu)化、微信公眾號、服務(wù)器托管、App設(shè)計

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

綿陽服務(wù)器托管