最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[Hbase] HBase数据备份恢复的几种机制总结

[复制链接]
跳转到指定楼层
楼主
发表于 2015-5-5 11:08:25 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
  1、  replication,
  通过类似mysql 主从复制方式进行复制,基于HLog
  在应用场景个人感觉比较重要的一点是可以隔离计算分析型的操作和实时性操作带来的影响。
  对于DDL操作不做复制,过实时读取hlog中的entry来解析变更的数据然后发送到从集群中去。
  2、  distcp,
  表数据文件的copy
  ./hadoopdistcp  hdfs://wxlab58:9100/hbase/lsmp_lottery_new_3/ hdfs://wxlab24:9100/hbase/lsmp_lottery_new_3/
  <property>
  <name>dfs.permissions</name>
  <value>false</value>
  </property>
  或者                     
  $ hadoop fs-chmod 777 /user/hadoop
  然后在目的hbase上执行./hbase org.jruby.Mainbin/add_table.rb /hbase/lsmp_lottery_new_3,更新元数据表meta
  生成meta信息后,重启hbase
  表可以不在线,是mapreuce操作,不可垮表操作,全量操作
  3、 copyTable,
  热备,scan和put的mapreduce操作,无法保证一致性,
  增量copy, –starttime and –endtime arguments
  只copy部分cf,–families=srcCf1,srcCf2
  $bin/hbase org.apache.hadoop.hbase.mapreduce.CopyTable [--starttime=X][--endtime=Y] [--new.name=NEW] [--peer.adr=ADR] tablename
  $HADOOP_HOME/bin/hadoopjar $HBASE_HOME/hbase-
  0.92.1.jarcopytable --families=n  --peer.adr=l-master1:2181:/
  hbase--new.name=hly_temp2    hly_temp
  表必须在线,是mapreduce操作,可以跨表操作,可以增量操作
  4、 export,
  把表数据导出到hdfs文件中(mapreduce操作)
  数据被写到了相应的目录,一个region一个文件。默认为sequencefile。可以选择对输出进行压缩等。
  bin/hbaseorg.apache.hadoop.hbase.mapreduce.Export <tablename> <outputdir>[<versions> [<starttime> [<endtime>]]]
  $HADOOP_HOME/bin/hadoopjar $HBASE_HOME/hbase-
  0.92.1.jarexport -D mapred.output.compress=true -D mapred.output.
  compression.codec=org.apache.hadoop.io.compress.BZip2Codec-D
  mapred.output.compression.type=BLOCK hly_temp  /backup/hly_temp
  表必须在线(热备),是mapreduce操作,可以跨表操作,可以增量操作
  5、 import,
  基于dump的hdfs文件,进行数据恢复(mapreduce操作)
  bin/hbaseorg.apache.hadoop.hbase.mapreduce.Import <tablename> <inputdir>
  $HADOOP_HOME/bin/hadoopjar $HBASE_HOME/hbase-
  0.92.1.jarimport hly_temp /backup/hly_temp
  表必须在线(热备),是mapreduce操作,可以跨表操作,可以实现增量操作
  6、 Bulkload tool,
  Bulkload对于添加表的大量的数据效率很高,绕过put操作的WAL、compact&flush、GC等资源开销。
  一个region一个HFile,在bulk load时候,自动把HFile mv到对应region的目录下。
  A、通过mapreduce,生成HFile,后bulkload
  HTabletable = new HTable(conf, tableName);
  job.setReducerClass(PutSortReducer.class);
  PathoutputDir = new Path(args[2]);
  FileOutputFormat.setOutputPath
  (job,outputDir);
  job.setMapOutputKeyClass
  (ImmutableBytesWritable.class);
  job.setMapOutputValueClass(Put.class);
  HFileOutputFormat.configureIncrementalLoad(job, table);
  hadoop jar hbase-VERSION.jar completebulkload /user/todd/myoutput mytable
  或者LoadIncremental.doBulkLoad把HFile load到HBase表中。
  B、importtsv通过mapreduce,直接导入到表中
  $HADOOP_HOME/bin/hadoopjar $HBASE_HOME/hbase-
  0.92.1.jarimporttsv \                    
  -Dimporttsv.columns=HBASE_ROW_KEY,t:v01,t:v02,t:v03,t:v04,t:v0
  5,t:v06,t:v07,t:v08,t:v09,t:v10,t:v11,t:v12,t:v13,t:v14,t:v15,t:v1
  6,t:v17,t:v18,t:v19,t:v20,t:v21,t:v22,t:v23,t:v24\
  hly_temp\
  /user/hac/input/2-1
  C、importtsv通过mapreduce生成HFile,后bulkload到表中
  $HADOOP_HOME/bin/hadoop jar$HBASE_HOME/hbase-
  0.92.1.jar importtsv \
  -Dimporttsv.bulk.output=/user/hac/output/2-1\
  -Dimporttsv.columns=HBASE_ROW_KEY,t:v01,t:v02,t:v03,t:v04,
  t:v05,t:v06,t:v07,t:v08,t:v09,t:v10,t:v11,t:v12,t:v13,t:v14,
  t:v15,t:v16,t:v17,t:v18,t:v19,t:v20,t:v21,t:v22,t:v23,t:v24\
  hly_temp \
  /user/hac/input/2-1
  $HADOOP_HOME/bin/hadoop jar$HBASE_HOME/hbase-
  0.92.1.jar completebulkload \
  /user/hac/output/2-1 \
  hly_temp
  表在线,支持增量操作


楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-6-18 15:51

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表