最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[基础] hadoop2.6和hbase1.0单机版安装配置

[复制链接]
跳转到指定楼层
楼主
发表于 2015-8-21 17:14:33 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 乔帮主 于 2015-8-21 17:16 编辑

环境

系统:Ubuntu 14.04
hadoop版本:2.6.0
hbase版本:1.0
jdk版本:1.8
下载地址:Apache上慢慢找吧~~


jdk的环境配置这里就不列出来了,首先讲一下hadoop配置吧。

hadoop安装

1.安装位置:/opt
2.创建hadoop用户组
sudo addgroup hadoop
3.创建hadoop用户
sudo adduser -ingroup hadoop hadoop
4.给hadoop添加权限
sudo vim /etc/sudoers
在root ALL=(ALL:ALL) ALL下添加

hadoop  ALL=(ALL:ALL)   ALL

5.安装ssh
sudo apt-get install ssh openssh-server
6.建立ssh无密码登陆

su - hadoopssh-keygen -t rsa -P ""cd ~/.sshcat id_rsa.pub >> authorized_keys

测试
ssh localhost
7.解压hadoop

tar -zxvf hadoop-2.6.0.tar.gzsudo mv hadoop-2.6.0 /opt/hadoopsudo chmod -R 775 /opt/hadoopsudo chown -R hadoop:hadoop /opt/hadoop

8.配置环境变量
sudo vim ~/.bashrc

在末尾添加

[AppleScript] 纯文本查看 复制代码
#HADOOP VARIABLES START
export JAVA_HOME=/opt/jdk1.8.0
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path-$HADOOP_HOME/lib"
#HADOOP VARIABLES END

export HBASE_HOME=/opt/hbase
export PATH=$PATH:$HBASE_HOME/bin
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.${JAVA_HOME}/lib:${JRE_HOME}/lib:${HADOOP_HOME}/share/hadoop/common/lib:${HBASE_HOME}/lib

source ~/.bashrc
9.修改hadoop-env.sh
将JAVA_HOME修改为jdk安装目录,这里是/opt/jdk1.8.0
10.修改core-site.xml


[AppleScript] 纯文本查看 复制代码
<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://localhost:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoop/tmp</value>
        </property>
</configuration>


11.修改mapred-site.xml.template并修改为mapred-site.xml

[AppleScript] 纯文本查看 复制代码
<configuration>[/p]        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
</configuration>

12.修改yarn-site.xml

[AppleScript] 纯文本查看 复制代码
<configuration>[/p]
<!-- Site specific YARN configuration properties -->
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

13.修改hdfs-site.xml

[AppleScript] 纯文本查看 复制代码
<configuration>[/p]    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/opt/hadoop/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/opt/hadoop/dfs/data</value>
    </property>
    <property>
        <name>dfs.permissions</name>
        <value>false</value>
     </property>
</configuration>

14.修改masters和slaves
masters好像不存在,自行添加
插入:
localhost
15.添加临时目录

cd /opt/hadoopmkdir tmp dfs dfs/name dfs/data

16.初始化hdfs
hdfs namenode -format
17.启动hadoop

start-dfs.shstart-yarn.sh

hbase安装

hbase安装相对简单,就是把其整合hadoop
1.解压

tar -zxvf hbase-1.0.0-bin.tar.gzsudo mv hbase-1.0.0 /opt/hbasecd /optsudo chmod -R 775 hbasesudo chown -R hadoop:hadoop: hbase

2.修改环境变量
sudo vim /opt/hbase/conf/hbase-env.sh
修改$JAVA_HOME为jdk安装目录,这里是/opt/jdk1.8.0
3.修改hbase-site.xml
添加:

[AppleScript] 纯文本查看 复制代码
<configuration>[/p]        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://localhost:9000/hbase</value>
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
</configuration>

4.启动hbase
start-hbase.sh
5.进入hbase shell
hbase shell
6.查看进程
通过jps,应该会看到一共有9个进程,分别如下:

[AppleScript] 纯文本查看 复制代码
3616 NodeManager[/p]3008 NameNode
6945 HQuorumPeer
7010 HMaster
3302 SecondaryNameNode
3128 DataNode
7128 HRegionServer
3496 ResourceManager
7209 Jps


进程号不一定是这些



至此,hadoop和hbase都安装完成了,不过这只是单机版也可以说是伪分布式配置,希望对大家有所帮助。

原文地址:http://blog.csdn.net/xanxus46/article/details/45133977




来自群组: Hadoop中国
楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-5-9 11:26

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表