最具影响力的数字化技术在线社区

168大数据

 找回密码
 立即注册

QQ登录

只需一步,快速开始

1 2 3 4 5
打印 上一主题 下一主题
开启左侧

[基础] 使用Sqoop从MySQL导入数据到Hive和HBase 及近期感悟

[复制链接]
跳转到指定楼层
楼主
发表于 2018-8-24 15:22:24 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 168主编 于 2018-8-24 15:23 编辑

  • 使用Sqoop从MySQL导入数据到Hive和HBase 及近期感悟
    • 基础环境
    • Sqool和Hive、HBase简介
      • Sqoop
      • Hive
      • HBase
    • 测试Sqoop
    • 使用Sqoop从MySQL导入数据到Hive
      • 使用复杂SQL
      • 调整Hive数据类型
      • 不断更新
    • 使用Sqoop从MySQL导入数据到HBase
      • 使用复杂SQL
      • 不断更新
      • Hive使用HBase数据
    • 关于Sqoop2
    • 综上所述
    • 其他感受




基础环境

sqoop:sqoop-1.4.5+cdh5.3.6+78,hive:hive-0.13.1+cdh5.3.6+397,hbase:hbase-0.98.6+cdh5.3.6+115


Sqool和Hive、HBase简介
Sqoop

Sqoop是一个用来将hadoop和关系型数据库中的数据相互转移的开源工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。


Hive

不想用程序语言开发MapReduce的朋友比如DB们,熟悉SQL的朋友可以使用Hive开离线的进行数据处理与分析工作。
Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。
注意Hive现在适合在离线下进行数据的操作,就是说不适合在挂在真实的生产环境中进行实时的在线查询或操作,因为一个字“慢”。
Hive起源于FaceBook,在Hadoop中扮演数据仓库的角色。建立在Hadoop集群的最顶层,对存储在Hadoop群上的数据提供类SQL的接口进行操作。你可以用 HiveQL进行select、join,等等操作。
如果你有数据仓库的需求并且你擅长写SQL并且不想写MapReduce jobs就可以用Hive代替。

Hive的内置数据类型可以分为两大类:(1)、基础数据类型;(2)、复杂数据类型。其中,基础数据类型包括:TINYINT、SMALLINT、INT、BIGINT、BOOLEAN、FLOAT、DOUBLE、STRING、BINARY、TIMESTAMP、DECIMAL、CHAR、VARCHAR、DATE。
下面的表格列出这些基础类型所占的字节以及从什么版本开始支持这些类型。

[td]
数据类型
所占字节
开始支持版本
TINYINT1byte: -128 ~ 127
SMALLINT2byte:-32,768 ~ 32,767
INT4byte:-2,147,483,648 ~ 2,147,483,647
BIGINT8byte:-9,223,372,036,854,775,808 ~ 9,223,372,036,854,775,807
BOOLEAN
FLOAT4byte单精度
DOUBLE8byte双精度
STRING
BINARY从Hive0.8.0开始支持
TIMESTAMP从Hive0.8.0开始支持
DECIMAL从Hive0.11.0开始支持
CHAR从Hive0.13.0开始支持
VARCHAR从Hive0.12.0开始支持
DATE
从Hive0.12.0开始支持

复杂类型包括ARRAY、MAP、STRUCT、UNION,这些复杂类型是由基础类型组成的。


HBase

HBase作为面向列的数据库运行在HDFS之上,HDFS缺乏随即读写操作,HBase正是为此而出现。HBase以Google BigTable为蓝本,以键值对的形式存储。项目的目标就是快速在主机内数十亿行数据中定位所需的数据并访问它。
HBase是一个数据库,一个NoSql的数据库,像其他数据库一样提供随即读写功能,Hadoop不能满足实时需要,HBase正可以满足。如果你需要实时访问一些数据,就把它存入HBase。

你可以用Hive作为静态数据仓库,HBase作为数据存储,放那些进行一些会改变的数据。在Hive中,普通表是存储在HDFS中,而你可以通过创建EXTERNAL TABLE外表来指定数据存储位置,可以是系统目录,也可以是ElasticSearch,还可以是HBase。
在使用Sqoop从Mysql导出数据入Hadoop时,就需要考虑是直接入Hive(此时是普通表),还是导入数据到HBase,Sqoop同时支持导入这两种导入。


测试Sqoop
  • #测试MySQL连接
  • [hdfs@node196 bin]$ sqoop list-databases --connect jdbc:mysql://192.168.180.11/angel --username anqi –P
  • #检验SQL语句
  • [hdfs@node196 bin]$ sqoop eval --connect jdbc:mysql://192.168.180.11/angel --username anqi --password anqi_mima \
  • --query "SELECT xi.*, jing.name,wang.latitude,wang.longitude \
  •     FROM xi ,jing, wang \
  •     WHERE xi.id=jing.foreignId AND wang.id=xi.id AND xi.date>='2015-09-01' AND xi.date<='2015-10-01'"

以上Sqoop语句执行过后,可以确认Sqoop运行正常,Sqoop连接MySQL正常。


使用Sqoop从MySQL导入数据到Hive
使用复杂SQL
  • #从MySQL导入数据到Hive
  • [hdfs@node196 bin]$ sqoop eval --connect jdbc:mysql://192.168.180.11/angel --username anqi --password anqi_mima \
  • --query "SELECT xi.*, jing.name,wang.latitude,wang.longitude \
  •     FROM xi ,jing, wang \
  •     WHERE xi.id=jing.foreignId AND wang.id=xi.id AND xi.date>='2015-09-01' AND xi.date<='2015-10-01' \
  •     AND \$CONDITIONS" \
  • --split-by date --hive-import -m 5 \
  • --target-dir /user/hive/warehouse/anqi_wang \
  • --hive-table anqi_wang

注意:
由于使用Sqoop从MySQL导入数据到Hive需要指定target-dir,因此导入的是普通表而不能为外部表。

以下简要列举了Sqoop的执行过程:


  • BoundingValsQuery: SELECT MIN(date), MAX(date) FROM (SELECT xi.*, jing.name,wang.latitude,wang.longitude FROM xi ,jing, wang WHERE xi.id=jing.foreignId AND wang.id=xi.id AND xi.date>='2015-09-01' AND xi.date<='2015-10-01' AND  (1 = 1) ) AS t1
  • 15/10/13 13:11:47 INFO mapreduce.JobSubmitter: number of splits:5
  • 15/10/12 13:40:28 INFO mapreduce.Job:  map 0% reduce 0%
  • 15/10/12 13:40:39 INFO mapreduce.Job:  map 20% reduce 0%
  • 15/10/12 13:40:40 INFO mapreduce.Job:  map 40% reduce 0%
  • 15/10/12 13:40:47 INFO mapreduce.Job:  map 60% reduce 0%
  • 15/10/12 13:40:48 INFO mapreduce.Job:  map 80% reduce 0%
  • 15/10/12 13:40:52 INFO mapreduce.Job:  map 100% reduce 0%
可以看出,--split-by设置后,job按设置值切分,切分个数为-m设置值(-m 5 不设置的话默认job切分数是4)。经检验,此种较复杂的SQL语句,Sqoop支持得很好。
调整Hive数据类型上面任务执行成功后,经过检测,发现Hive表结构中的数据类型与MySQL对应列有如下关系:
  • MySQL(bigint) --> Hive(bigint)
  • MySQL(tinyint) --> Hive(tinyint)
  • MySQL(int) --> Hive(int)
  • MySQL(double) --> Hive(double)
  • MySQL(bit) --> Hive(boolean)
  • MySQL(varchar) --> Hive(string)
  • MySQL(decimal) --> Hive(double)
  • MySQL(date/timestamp) --> Hive(string)

可以看出MySQL的decimal类型变成了Hive中的double类型。此时需要在导入时通过--map-column-hive 作出映射关系指定,如下所示:


  • [hdfs@node196 bin]$ sqoop import \
  • --connect jdbc:mysql://192.168.184.12/angel --username anqi --password anqi_mima \
  • --query "SELECT * FROM xi WHERE date>='2015-09-16' AND date<='2015-10-01' \
  •     AND \$CONDITIONS" \
  • --split-by date --hive-import -m 5 \
  • --map-column-hive cost="DECIMAL",date="DATE" \
  • --target-dir /user/hive/warehouse/xi \
  • --hive-table xi

以上命令可以执行成功,然而Hive列类型设置为DECIMAL时,从Mysql[decimal(12,2)]-->Hive[decimal]会导致导入后小数丢失。

注意:
对于cost="DECIMAL(10,2)"这样指定精确度的映射语句的执行,在Sqoop1.4.5中执行失败。这是Sqoop1.4.5的一个BUG,详情见:https://issues.apache.org/jira/browse/SQOOP-2103,它在1.4.7版本中修复。


不断更新

将上面Sqoop语句执行两次,在执行第二次时会出现错误:


  • ERROR tool.ImportTool: Encountered IOException running import job: org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://node190:8020/user/hive/warehouse/anqi_wang already exists
这表示HDFS中已经存在相应存储,此时需要执行Sqoop-Hive的增量导入语句。注意:
由于Hive没有rowkey,其hdfs存储决定了Sqoop-Hive只能添加,update更新导入无法进行。

使用Sqoop从MySQL导入数据到HBase
使用复杂SQL
  • #从MySQL导入数据到HBase
  • [hdfs@node196 bin]$ sqoop import \
  • --connect jdbc:mysql://192.168.184.12/angel --username anqi --password anqi_mima \
  • --query "SELECT * FROM xi WHERE 1=1 \
  •     AND \$CONDITIONS" \
  • --hbase-table hxi --hbase-create-table \
  • --hbase-row-key id --split-by date -m 7 \
  • --column-family aitanjupt

上面SQL语句较简单。经检验,更复杂的SQL语句,Sqoop支持得很好,导入正常。


不断更新

以上指定了HBase的Rowkey后,再次执行从MySQL导入数据到HBase的Sqoop语句,基于相同的Rowkey值,HBase内相应的行会进行更新替换。


Hive使用HBase数据
  • CREATE EXTERNAL TABLE default.angel(
  •      id BIGINT,
  •      username STRING,
  •      password STRING)
  • ROW FORMAT SERDE 'org.apache.hadoop.hive.hbase.HBaseSerDe'
  • STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
  • WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key, angel:username, angel:password")
  • TBLPROPERTIES("hbase.table.name" = "hxi");
关于Hive使用存储在HBase中的数据,更多详细信息可以查看《使用Hive或Impala执行SQL语句,对存储在HBase中的数据操作》一文。
关于Sqoop2


架构上,Sqoop1使用MapOnly作业进行Hadoop(HDFS/HBase/Hive)同关系数据库进行数据的导入导出,用户使用命令行方式与之交互,数据传输和数据格式紧密耦合;易用性欠佳,Connector数据格式支持有限,安全性不好,对Connector的限制过死。Sqoop2则建立了集中化的服务,负责管理完整的MapReduce作业,提供多种用户交互方式(CLI/WebUI/RESTAPI),具有权限管理机制,具有规范化的Connector,使得它更加易用,更加安全,更加专注。

综上所述



使用Sqoop从MySQL导入数据到HBase要比导入到Hive方便,使用Hive对HBase数据操作时,也无decimal精度相关BUG,并且可以很好的支持更新。因此建议使用Sqoop从MySQL导入数据到HBase,而非直接Hive。经过测试,使用Sqoop从MySQL导入数据到HBase,100万条需花费7~12分钟。impala对于hbase的查询效率也没有对hdfs效率高。本文会不定期更新,若有不对之处请前往原文出处:http://www.cnblogs.com/wgp13x/ 进行指正。
其他感受

大数据领域浸染的多了,才知道当前社会上的公司对于大数据方向的技术都是什么样的理解。有的公司数据量足够大,但数据并无价值或者价值不够大,我们称之为LU(large but unavailable)类型公司;有的公司数据量不多,但都价值连城,我们称之为SV(small but valuable)类型公司;有的公司数据量很大,数据也都很有价值,我们称之为LV(large and valuable)类型公司。LU公司市场上有很多,造成数据无价值的因素可能是有数据本身的原因,也有产品的原因,他们也经常想要在当前环境下试下大数据的水,这便要细心甄别。SV公司也有不少,对于他们而言,好的数据分析师比大数据平台更重要,欲要试水大数据,还是要对数据量有清晰的预估。LV公司是最需要搭建大数据平台的,但又往往他们没有技术与欲望去做这件事,这也比较可恨。简而言之,想做的不一定需要,不做的不一定不需要。


作者:Angel
出处:http://www.cnblogs.com/wgp13x/



楼主热帖
分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
收藏收藏 转播转播 分享分享 分享淘帖 赞 踩

168大数据 - 论坛版权1.本主题所有言论和图片纯属网友个人见解,与本站立场无关
2.本站所有主题由网友自行投稿发布。若为首发或独家,该帖子作者与168大数据享有帖子相关版权。
3.其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者和168大数据的同意,并添加本文出处。
4.本站所收集的部分公开资料来源于网络,转载目的在于传递价值及用于交流学习,并不代表本站赞同其观点和对其真实性负责,也不构成任何其他建议。
5.任何通过此网页连接而得到的资讯、产品及服务,本站概不负责,亦不负任何法律责任。
6.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源,若标注有误或遗漏而侵犯到任何版权问题,请尽快告知,本站将及时删除。
7.168大数据管理员和版主有权不事先通知发贴者而删除本文。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

关于我们|小黑屋|Archiver|168大数据 ( 京ICP备14035423号|申请友情链接

GMT+8, 2024-5-17 06:09

Powered by BI168大数据社区

© 2012-2014 168大数据

快速回复 返回顶部 返回列表