Hadoop伪布满式搭建

yarn: 主节点 ResourceManager  

 

搭建伪布满式景况,只必要一台Linux服务器,平时开辟测验使用

hadoop-2.6.5/etc/hadoop/yarn-site.xml

  1. 将Hadoop包上传到Linux服务器上,如~/tools目录下图片 1

     

  2. 解压该滑坡包到~/training目录下              图片 2

     

  3. 在~/.bash_profile里设置情状变量,扩大大青框内容。 vi ~/.bash_profile,按 【i】 步入编辑方式,按【esc】退出编辑方式,输入冒号:wq回车保存
     图片 3

     

  4. 执行source ~/.bash_profile  使意况变量生效

  5. 配置jdk路线,找到Hadoop的配备文件hadoop-env.sh,vi  /root/training/hadoop-2.7.3/etc/hadoop/hadoop-env.sh回车,参与蓝色部分,JAVA_HOME就是jdk的路径图片 4

     

  6. 随着布置hdfs-site.xml,参与黄色框内容

    <!--配置数据块的冗余度-->
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>

    图片 5

     

  7. 安排core-site.xml,到场如下内容

    <!--配置NameNode地址-->
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://本机IP:9000</value>
    </property>

    <!--配置数据在Linux上保留的地点-->
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/root/training/hadoop-2.7.3/tmp</value>
    </property>

    图片 6

     

  8. 配置mapred-site.xml,增加如下

    <!--M科雷傲运维的框架-->
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>                                           图片 7

     

  9. 配置yarn-site.xml,加多如下

    <!--yarn的主节点 RM-->
    <property>
    <name>yarn.resouremanager.hostname</name>
    <value>IP地址</value>
    </property>

    <!--NodeManager运转M奥德比赛日程序方法-->
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>                                 图片 8

     

  10. 运行start-all.sh,表示运行全部服务,但意识要输入八次密码图片 9

     

  11. 悬停全体服务,实行stop-all.sh,也要输服兵役遍密码,从起步到甘休服务,一共输入8次密码。如若开发银行多台服务器,那岂不是相当多密码图片 10

    伪遍布式情形到此就搭建配置达成。基于输入多次密码,能够安排免密登陆,下一节将会讲课

1)配置hadoop-env.sh

           从节点 NodeManager

一,安装情形 
硬件:虚拟机 
操作系统:Centos 6.4 陆拾一位 
IP:10.51.121.10 
主机名:datanode-4 
安装顾客:root

在单机上模仿遍布式意况

$ bin/hdfs namenode –format
2)运营NameNode 和 DataNode 守护进度

            从节点 DataNode   SecondaryNameNode

hadoop-2.6.5/etc/hadoop/hdfs-site.xml 

工具:SecureCRT6.5.0

<property>
    <name>dfs.data.dir</name>
    <value>/root/hadoop/hdfs/data</value>
    <description>datanode上数据块的大意存款和储蓄地点</description>
</property>

 

2,解压安装 
1),复制 hadoop-2.6.5.tar.gz 到/root/hadoop目录下, 
然后#tar -xzvf hadoop-2.6.5.tar.gz解压,解压后目录为:/root/hadoop/hadoop-2.6.5
2),在/root /hadoop/目录下,创建tmp、hdfs/name、hdfs/data目录,实施如下命令 
#mkdir /root/hadoop/tmp 
#mkdir /root/hadoop/hdfs 
#mkdir /root/hadoop/hdfs/data 
#mkdir /root/hadoop/hdfs/name

HDFS:主节点 NameNode

$ sbin/start-yarn.sh
5,运营验证 
1)实行jps命令,有如下进度,表达Hadoop平常运转

tools和training是自定义目录

Hadoop2.6单机安装

<property>
    <name>hadoop.tmp.dir</name>
    <value>/root/hadoop/tmp</value>
    <description>namenode上本土的hadoop有时文件夹</description>
</property>
</configuration>
4),配置hdfs-site.xml 
丰盛如下配置

此地写图片描述

hadoop-2.6.5/etc/hadoop/hadoop-env.sh 

# set hadoop path
export HADOOP_HOME=/root /hadoop/hadoop-2.6.5
export PATH=$PATH:$HADOOP_HOME/bin
4),使遇到变量生效,$source ~/.bash_profile

hadoop-2.6.5/etc/hadoop/yarn-env.sh 

#export JAVA_HOME=/home/y/libexec/jdk1.6.0/
export JAVA_HOME=/usr/lib/jdk1.6.0_45
3)配置core-site.xml 
丰硕如下配置:

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
验证ssh,# ssh localhost 
没有须要输入密码就能够登入。

 

本文由2020欧洲杯官方投注-2020欧洲杯官方投注网址发布于win7,转载请注明出处:Hadoop伪布满式搭建

相关阅读