标签:: Hbase

Hbase-Spark读写HBase数据

1.Spark写入数据到HBase HBase表结构 12##创建hbase表create 'user','basic' 定义HBase定义 12345val hbaseConf=HBaseConfiguration.create()//zookeeper端口hbaseConf.set("hbase.zookeeper.property.clientPort", "2181")//zookeeper地址hbaseConf.set("hbase.zookeeper.quorum", "hadoop01,hadoop02,hadoop03")

Hbase-phoenix安装

1.解压并配置将下载好的安装包上传到我们的主节点上12tar -xvf apache-phoenix-4.10.0-HBase-1.2-bin.tar.gzmv apache-phoenix-4.10.0-HBase-1.2-bin/ phoenix-4.10 1234#config phoenix4.10export PHOENIX_HOME=/home/yangql/app/phoenix-4.10export PHOENIX_CLASSPATH=$PHOENIX_HOMEexport PATH=$PATH:$PHOENIX_HOME/bin

Hbase安装

1. 解压缩hbase的软件包1[yangql@hadoop01 app]$ tar -xvf hbase-1.2.5-bin.tar.gz 2. 进入hbase的配置目录,在hbase-env.sh文件里面加入java环境变量.1export JAVA_HOME=/opt/jdk1.8.0_91 3. 关闭HBase自带的Zookeeper,使用Zookeeper集群1export HBASE_MANAGES_ZK=false