再上一章中我们已经学习了
Hadoop-1.0.3集成Hive-0.8.1,在这一章节我们来学习一下如何配置Hbase-0.92.2。
配置Zookeeper先
在hadoop上集成hbase之前,需要先安装zookeeper,hbase集群需要通过zookeeper集群来通信和监控Hbase集群中的节点的状态。故我们首先来配置一下zookeeper:
引用
# wget http://mirror.bjtu.edu.cn/apache/zookeeper/zookeeper-3.4.5/zookeeper-3.4.5.tar.gz
# chmod +x zookeeper-3.4.5.tar.gz
# tar -xzvf zookeeper-3.4.5.tar.gz
# cp -rf zookeeper-3.4.5 /opt/bigdata
# cd /opt/bigdata/zookeeper-3.4.5
# vi /etc/profile
export ZOOKEEPER_HOME=/opt/bigdata/zookeeper-3.4.5
export PATH=%ZOOKEEPER_HOME%/bin:$PATH
# source /etc/profile
# cd conf
# cp zoo_sample.cfg zoo.cfg
# mkdir /data/zookeeper
# vi zoo.cfg
//将zoo.cfg中的dataDir=/tmp/zookeeper改为
dataDir=/data/zookeeper
好了,执行好上述命令语句后,zookeeper就已经配置好了,现在启动:
引用
# cd ../bin
# ./zkServer.sh start
配置Hbase
先下载hbase并解压:
引用
# wget http://archive.apache.org/dist/hbase/hbase-0.92.2/hbase-0.92.2.tar.gz
# chmod +x hbase-0.92.2.tar.gz
# tar xzvf hbase-0.92.2.tar.gz
# cp hbase-0.92.2 /opt/bigdata
1、先配置hbase环境变量:
引用
# vi /etc/profile
export HBASE_HOME=/opt/bigdata/hbase-0.92.2
export PATH=%HBASE_HOME%/bin:$PATH
# source /etc/profile
2、接下来进入%HBASE_HOME%/conf,配置hbase-env.sh:
引用
# cd /opt/bigdata/hbase-0.92.2/conf
# vi hbase-env.sh
export JAVA_HOME=/usr/local/jdk6
export HBASE_MANAGES_ZK=false //true:使用hbase内置的zk,false:使用外置的zk
export HBASE_HOME=/opt/bigdata/hbase-0.92.2
export HADOOP_INSTALL=/opt/bigdata/hadoop-1.0.3
# sh hbase-env.sh
3、再接下来配置%HBASE_HOME%/conf,配置hbase-site.xml:
引用
# vi hbase-site.xml
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>localhost:60000</value>
</property>
<property>
<name>zookeeper.znode.parent</name>
<value>/hbase</value>
<description>hbase在zookeeper中注册的根结点的名字,默认为”/hbase”</description>
</description>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>localhost</value>
<description>指定ZooKeeper集群</description>
</property>
4、接下来在配置%HBASE_HOME%/conf/regionservers:
引用
# vi regionservers
localhost //这里要列出所有的regionservers
5、然后将hadoop里的hadoop-core-1.0.3.jar和zookeeper里的zookeeper.3.4.5.jar拷贝到hbase的lib目录下:
引用
# cd /opt/bigdata/hadoop-1.0.3
# cp hadoop-core-1.0.3.jar ../hbase-0.92.2/lib
# cp zookeeper-3.4.5.jar ../hbase-0.92.2/lib
# rm -rf zookeeper-3.4.3.jar //如果之前有其他版本的hadoop-core-*.jar则删除之
6、还要修改/etc/hosts,将用户名映射到127.0.0.1,如:
引用
127.0.0.1 JackyChen
否则启动hbase的时候报错。
好了,到这里已经配置好了hbase,我们要按顺序启动hadoop、 zookeeper和hbase:
引用
# cd /opt/bigdata/hadoop-1.0.3/bin
# ./start-all.sh
# cd ../../zookeeper-3.4.5/bin
# ./zkServer.sh start
# cd ../../hbase-0.92.2/bin
# ./start-hbase.sh
执行上述命令后,hbase就启动起来了,接下来我们查看相关的进程:
引用
# jps
如果出现一下显示就说明已经启动成功:
然后执行
./hbase shell进入hbase的shell命令行。
- 大小: 126.9 KB
分享到:
相关推荐
前言:Hadoop是Apache开源组织的一个分布式计算开源框架,在很多大型网站上都已经得到了应用,如亚马逊、Facebook和Yahoo等等。对于我来说,最近的一个使用点就是服务集成平台的日志分析。服务集成平台的日志量将会...
企业内部实际 hadoop zookeeper hbase搭建步骤明细
VMware10+CentOS6.5+Hadoop2.2+Zookeeper3.4.6+HBase0.96安装过程详解 用于解决分布式集群服务器
大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
环境介绍:3台虚拟机安装centos6.5 64位、jdk1.7 64位、hadoop2.5.2 64位
VMware10+CentOS6.5+Hadoop2.2+Zookeeper3.4.6+HBase0.96安装过程详解.pdf
CentOS-6.4 64位系统下hadoop-2.2.0+hbase-0.96+zookeeper-3.4.5 分布式安装配置
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
通过VirtualBox安装多台虚拟机,实现集群环境搭建。 优势:一台电脑即可。 应用场景:测试,学习。...内附百度网盘下载地址,有hadoop+zookeeper+spark+kafka等等·····需要的安装包和配置文件
适合新手,详细 01-Java环境安装 02- Eclipse下载与安装 03-VMware虚拟机的安装 04-在VMware中安装CentOS 05- Hadoop集群+ Hive+ MySQL搭建
亲手在Centos7上安装,所用软件列表 apache-flume-1.8.0-bin.tar.gz apache-phoenix-4.13.0-HBase-1.3-bin.tar.gz hadoop-2.7.4.tar.gz hbase-1.3.1-bin.tar.gz jdk-8u144-linux-x64.tar.gz kafka_2.12-1.0.0.tgz ...
搭建hadoop+zookeeper+hbase+spark集群的配置文件和启停命令
本文将HBase-2.2.1安装在Hadoop-3.1.2上,关于Hadoop-3.1.2的安装,请参见《基于zookeeper-3.5.5安装hadoop-3.1.2》一文。安装环境为64位CentOS-Linux 7.2版本。 本文将在HBase官方提供的quickstart.html文件的指导...
基于CentOS7的Hadoop2.7.7集群部署+Hive1.2.2+Zookeeper3.4.14集群+hbase1.x+kylin2.5.0环境搭建,以及一个简单的kylin案例介绍
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。...Zookeeper (QuorumPeerMain) NameNode Resource Manager DFSZK Failover Controller
基于Docker构建的Hadoop开发测试环境,包含Hadoop,Hive,HBase,Spark+源代码+文档说明 基于Docker的Hadoop开发测试环境使用说明 ## 0.内容 1. 基本软件环境介绍 2. 使用方法简介 3. 已知问题 4. 注意事项 ## 1....
Dockerfiles:用于Docker和Kubernetes的50多个DockerHub公共映像-Hadoop,Kafka,ZooKeeper,HBase,Cassandra,Solr,SolrCloud,Presto,Apache Drill,Nifi,Spark,Consul,Riak,TeamCity和DevOps工具建立在...
centos大数据分布式集群搭建,包含hadoop spark hbase hive solr elasticsearch redis zookeeper rocketmq mongodb mariadb storm kafka docker