当前位置:  开发笔记 > 编程语言 > 正文

Centos6.5下部署Hadoop2.2的完全分布式集群

我们来看下,如何在Centos6.5下,部署完全分布式集群。下面先来看下具体的系统环境序号名称描述1系统环境Centos6.5最好在linux上部署2
我们来看下,如何在Centos6.5下,部署完全分布式集群。 
下面先来看下具体的系统环境 

序号 名称 描述
1 系统环境Centos6.5 最好在linux上部署
2 Hadoop版本Hadoop2.2.0 Hadoop2.x中的第一个稳定版本
3 JAVA环境JDK1.7 64位(build 1.7.0_25-b15)


部署情况 
序号 IP地址 节点名
1 192.168.46.28 hp1(master)
2 192.168.46.29 hp2(slave)
3 192.168.46.30 hp3(slave)


部署步骤 
序号 操作
1 配置SSH无密码登陆
2 配置环境变量JAVA(必须),MAVEN,ANT
3 配置Hadoop环境变量
4 配置core-site.xml文件
5 配置hdfs-site.xml文件
6 配置mapred-site.xml文件
7 配置yarn-site.xml文件
8 配置slaves文件
9 分发到从机上
10 在每台机器上格式化namenode
11 启动集群sbin/start-all.sh
12 执行jps命令,查询master与slave的java进程
13 测试页面访问,集群状态信息,
14 可以测试一个MR作业,验证集群



1,首先我们的集群之间的ssh是信任的,方便hadoop进程之间的通信。 

生成公钥:ssh-keygen  -t rsa -P '' 
拷贝信任:ssh-copy-id  .ssh/id_rsa.pub  root@hp2 
2,配置各种环境变量包括java,maven,ant,hadoop等的变量,代码如下: 


export PATH=.:$PATH

export JAVA_HOME="/usr/local/jdk"
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export PATH=$PATH:$JAVA_HOME/bin

export HADOOP_HOME=/root/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export CLASSPATH=.:$CLASSPATH:$HADOOP_HOME/lib
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export ANT_HOME=/usr/local/ant
export CLASSPATH=$CLASSPATH:$ANT_HOME/lib
export PATH=$PATH:$ANT_HOME/bin

export MAVEN_HOME="/usr/local/maven"
export CLASSPATH=$CLASSPATH:$MAVEN_HOME/lib
export PATH=$PATH:$MAVEN_HOME/bin

3,配置core-site.xml文件 







      
        fs.default.name  
        hdfs://192.168.46.28:9000  
      
  
    hadoop.tmp.dir
    /root/hadoop/tmp
  





4,配置hdfs-site.xml文件 







  
   dfs.replication  
   1  
   

   
   dfs.namenode.name.dir  
   /root/hadoop/nddir  
   


   
   dfs.datanode.data.dir  
   /root/hadoop/dddir  
   

  
  dfs.permissions  
  false  





配置mapred-site.xml文件 








mapred.job.tracker
hp1:8021
true
The host and port that the MapReduce JobTracker runs at. 

  
    mapreduce.cluster.temp.dir  
      
    No description  
    true  
    
  
    
    mapreduce.cluster.local.dir  
      
    No description  
    true  
    



配置yarn-site.xml文件 





yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler



Yarn.nodemanager.aux-services
mapreduce.shuffle



yarn.resourcemanager.address
hp1:8032



yarn.resourcemanager.scheduler.address
hp1:8030



yarn.resourcemanager.resource-tracker.address
hp1:8031



yarn.resourcemanager.admin.address
hp1:8033



yarn.resourcemanager.webapp.address
hp1:8088




配置slaves文件 
192.168.46.28
192.168.46.29
192.168.46.30

配置好后,注意,在hdfs-site.xml文件里的目录,需要自己在hadoop根目录下创建,以及hadoop的HDFS的tmp目录。一切做好之后,我们就可以分发整套hadoop到从机上,然后格式化namenode,并启动集群,使用jps在主机,和从机上分别显示如下: 
master的jps显示如下: 
4335 SecondaryNameNode
4464 ResourceManager
4553 NodeManager
4102 NameNode
4206 DataNode
6042 Jps

slave上的jps显示如下: 
1727 DataNode
1810 NodeManager
2316 Jps

确实jps命令显示的java进程正确,我们就可以访问,web界面进行查看了,截图如下: 





至此,我们已经成功的部署完成hadoop集群,安装时,注意散仙的步骤,按这样顺序来,一般不容易不错。 
推荐阅读
保佑欣疼你的芯疼
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有