初始化hadoop服務(wù)所要使用到的命令有哪些

本篇文章給大家分享的是有關(guān)初始化hadoop服務(wù)所要使用到的命令有哪些,小編覺得挺實用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

創(chuàng)新互聯(lián)建站自2013年創(chuàng)立以來,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項目成都網(wǎng)站設(shè)計、網(wǎng)站建設(shè)網(wǎng)站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元鳳城做網(wǎng)站,已為上家服務(wù),為鳳城各地企業(yè)和個人服務(wù),聯(lián)系電話:18980820575

 一年多前簡單研究過hadoop,環(huán)境centos 6.5 64bit.使用下面的命令逐步助興即可初始化,留著自己用的。

cd /opt
wget http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-2.6.4/hadoop-2.6.4.tar.gz
tar -xvf hadoop-2.6.4.tar.gz 
ln -s hadoop-2.6.4 hadoop
cp ./etc/hadoop/* input
bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep input output 'dfs[a-z.]+' 
cat output/*


rpm -ivh http://nginx.org/packages/centos/6/noarch/RPMS/nginx-release-centos-6-0.el6.ngx.noarch.rpm
yum install nginx
service nginx start

iptables -I INPUT -p tcp --dport 80 -j ACCEPT
service iptables save
service iptables restart
service iptables status

http://10.132.65.77/hadoop-project-dist/hadoop-common/SingleCluster.html

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

iptables -I INPUT -p tcp --dport 50070 -j ACCEPT

bin/hdfs dfs -put etc/hadoop /user

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.4.jar grep /user output 'dfs[a-z.]+'

bin/hdfs dfs -get output output
bin/hdfs dfs -cat output/* -- this is not working

iptables -I INPUT -p tcp --dport 8088 -j ACCEPT

iptables -I INPUT -p tcp --dport 9000 -j ACCEPT

iptables -I INPUT -p tcp --dport 50090 -j ACCEPT
iptables -I INPUT -p tcp --dport 50070 -j ACCEPT
iptables -I INPUT -p tcp --dport 50010 -j ACCEPT
iptables -I INPUT -p tcp --dport 50075 -j ACCEPT
iptables -I INPUT -p tcp --dport 50020 -j ACCEPT


iptables -I INPUT -p tcp --dport 8040 -j ACCEPT
iptables -I INPUT -p tcp --dport 8042 -j ACCEPT
iptables -I INPUT -p tcp --dport 8088 -j ACCEPT
iptables -I INPUT -p tcp --dport 8030 -j ACCEPT
iptables -I INPUT -p tcp --dport 8031 -j ACCEPT
iptables -I INPUT -p tcp --dport 8032 -j ACCEPT
iptables -I INPUT -p tcp --dport 8033 -j ACCEPT

 bin/hdfs namenode -format


javac -classpath ${HADOOP_HOME}/hadoop-${HADOOP_VERSION}-core.jar -d wordcount_classes WordCount.java

以上就是初始化hadoop服務(wù)所要使用到的命令有哪些,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降?。希望你能通過這篇文章學(xué)到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

本文名稱:初始化hadoop服務(wù)所要使用到的命令有哪些
文章路徑:http://bm7419.com/article26/geiecg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供Google、全網(wǎng)營銷推廣、網(wǎng)站維護、App設(shè)計、關(guān)鍵詞優(yōu)化域名注冊

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

搜索引擎優(yōu)化