如何利用HDFS來解決SparkOnYarn模式解決Jar亂飛情況

本篇內(nèi)容主要講解“如何利用HDFS來解決Spark On Yarn模式解決Jar亂飛情況”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“如何利用HDFS來解決Spark On Yarn模式解決Jar亂飛情況”吧!

創(chuàng)新互聯(lián)自2013年創(chuàng)立以來,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項(xiàng)目網(wǎng)站建設(shè)、成都網(wǎng)站建設(shè)網(wǎng)站策劃,項(xiàng)目實(shí)施與項(xiàng)目整合能力。我們以讓每一個(gè)夢想脫穎而出為使命,1280元羅甸做網(wǎng)站,已為上家服務(wù),為羅甸各地企業(yè)和個(gè)人服務(wù),聯(lián)系電話:18980820575

Spark的jar包比較多,如果直接修改spark的jars目錄中的jar可能對用戶造成jar包沖突,也不利于管理,因?yàn)榭梢岳肏DFS存儲功能解決jar問題

1、在本地創(chuàng)建zip文件,壓縮jar包

# 進(jìn)入到spark的jars目錄,在spark的jars目錄下壓縮包
zip spark.zip ./*

2、HDFS上創(chuàng)建存放spark jar目錄

hdfs dfs -mkdir -p /spark-yarn/jars

3、將$SPARK_HOME/jars下的spark.zip包上傳至剛健的HDFS路徑

[hadoop@hadoop jars]$  hdfs dfs -put ./spark.zip /spark-yarn/jars/

4、在spark-defaults.conf中添加(也可以在啟動時(shí)候 -conf 指定)

spark.yarn.archive hdfs://ruozedata001:9000/spark-jars/spark.zip

5、查看Spark log

yarn log -applicationID xxx

https://www.cnblogs.com/chhyan-dream/p/12799856.html

https://blog.csdn.net/naruto00001/article/details/79578520

到此,相信大家對“如何利用HDFS來解決Spark On Yarn模式解決Jar亂飛情況”有了更深的了解,不妨來實(shí)際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

網(wǎng)頁名稱:如何利用HDFS來解決SparkOnYarn模式解決Jar亂飛情況
分享路徑:http://bm7419.com/article14/ijhpde.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供用戶體驗(yàn)、品牌網(wǎng)站設(shè)計(jì)、手機(jī)網(wǎng)站建設(shè)、網(wǎng)站導(dǎo)航關(guān)鍵詞優(yōu)化、商城網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)