最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[综合] Hadoop2.7.4完全分布式集群构建实战总结

[复制链接]
跳转到指定楼层
楼主
发表于 2019-5-1 18:57:57 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
配置Linux环境
配置好各虚拟机的网络(采用NAT联网模式)
通过Linux图形界面进行修改(桌面版本Centos):进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections-> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual ->点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
修改配置文件方式
              vi /etc/sysconfig/network-scripts/ifcfg-eth0


              DEVICE="eth0"


              BOOTPROTO="static"               ###


              HWADDR="00:0C:29:3C:BF:E7"


              IPV6INIT="yes"


              NM_CONTROLLED="yes"


            


              TYPE="Ethernet"


              UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"


              IPADDR="192.168.1.101"           ###


              NETMASK="255.255.255.0"          ###


              GATEWAY="192.168.1.1"            ###


修改各个虚拟机主机名
              vi /etc/sysconfig/network


              NETWORKING=yes


              HOSTNAME=node-1   


修改主机名和IP的映射关系
              vi /etc/hosts


              192.168.1.101 node-1


              192.168.1.102 node-2


              192.168.1.103 node-3


关闭防火墙
              #查看防火墙状态


              service iptables status


              #关闭防火墙


              service iptables stop


              #查看防火墙开机启动状态


              chkconfig iptables --list


              #关闭防火墙开机启动


              chkconfig iptables off


配置ssh免登陆
           #生成ssh免登陆密钥


       ssh-keygen -t rsa (四个回车)


       执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)


       将公钥拷贝到要免密登陆的目标机器上


       ssh-copy-id node-2


       ssh-copy-id node-3


同步集群时间
            常用的手动进行时间的同步


              date -s "2018-03-03 03:03:03"


            或者网络同步:


              yum install ntpdate


              ntpdate cn.pool.ntp.org


安装JDK并配置环境变量
上传jdk
              rz jdk-8u65-linux-x64.tar.gz


解压jdk
              tar -zxvf jdk-8u65-linux-x64.tar.gz -C /root/apps


将java添加到环境变量中
              vim /etc/profile


              #在文件最后添加


              export JAVA_HOME=/root/apps/jdk1.8.0_65


              export PATH=$PATHJAVA_HOME/bin


              export CLASSPATH=.JAVA_HOME/lib/dt.jarJAVA_HOME/lib/tools.jar


              #刷新配置


              source /etc/profile


安装hadoop2.7.4
上传hadoop的安装包到服务器
            hadoop-2.7.4-with-centos-6.7.tar.gz


解压安装包
            tar zxvf hadoop-2.7.4-with-centos-6.7.tar.gz


            注意:hadoop2.x的配置文件目录:$HADOOP_HOME/etc/hadoop


配置hadoop的核心配置文件
配置文件hadoop-env.sh
vi hadoop-env.sh


export JAVA_HOME=/root/apps/jdk1.8.0_65


配置文件core-site.xml
说明:指定HADOOP所使用的文件系统schema(URI),HDFS的主节点(NameNode)地址


<property>


              <name>fs.defaultFS</name>


              <value>hdfs://node-1:9000</value>


</property>


说明:指定hadoop运行时产生文件的存储目录,默认/tmp/hadoop-${user.name} -->


<property>


              <name>hadoop.tmp.dir</name>


              <value>/home/hadoop/hadoop-2.4.1/tmp</value>


</property>


配置文件hdfs-site.xml
<!-- 指定HDFS副本的数量 -->


<property>


              <name>dfs.replication</name>


              <value>2</value>


</property>


<property>


             <name>dfs.namenode.secondary.http-address</name>


            <value>node-2:50090</value>


</property>


配置文件mapred-site.xml
mv mapred-site.xml.template mapred-site.xml


vi mapred-site.xml


<!-- 指定mr运行时框架,这里指定在yarn上,默认是local -->


<property>


              <name>mapreduce.framework.name</name>


              <value>yarn</value>


</property>


配置文件yarn-site.xml
<!-- 指定YARN的主节点(ResourceManager)的地址 -->


<property>


             <name>yarn.resourcemanager.hostname</name>


             <value>node-1</value>


</property>


<!-- NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MapReduce程序默认值:"" -->


<property>


              <name>yarn.nodemanager.aux-services</name>


             <value>mapreduce_shuffle</value>


</property>


配置文件slaves,里面写上从节点所在的主机名字
vi slaves


node-1


node-2


node-3


将hadoop添加到环境变量
       vim /etc/proflie


export JAVA_HOME=/root/apps/jdk1.8.0_65


export HADOOP_HOME=/root/apps/hadoop-2.7.4


       export PATH=$PATHJAVA_HOME/binHADOOP_HOME/binHADOOP_HOME/sbin


       source /etc/profile


格式化namenode(本质是对namenode进行初始化)
       hdfs namenode -format (hadoop namenode -format)


启动hadoop,验证是否启动成功
       先启动HDFS


       sbin/start-dfs.sh


       再启动YARN


       sbin/start-yarn.sh


       使用jps命令验证


       27408 NameNode


       28218 Jps


       27643 SecondaryNameNode   (secondarynamenode)


       28066 NodeManager


       27803 ResourceManager


       27512 DataNode


       http://192.168.1.101:50070 (HDFS管理界面)


       http://192.168.1.101:8088 (MR管理界面)






---------------------
作者:SmartBrain
来源:CSDN
原文:https://blog.csdn.net/peter_changyb/article/details/81195920  

楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-4-25 08:08

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表